Hvad er en deepfake? Kan du stadig huske Barack Obamas ord? "Præsident Trump er en total og komplet idiot!"? Ganske provokerende, man er ikke vant til sådanne udtalelser fra den tidligere amerikanske præsident. Men sagde han virkelig det? Selvfølgelig gjorde han ikke det. Denne video er en såkaldt deepfake og blev skabt af Jordan Peele for at vise, hvor farlig sådan en fake kan være. Men lad os dykke lidt dybere ned i sagen.
Hvad er egentlig en deepfake, og hvad er formålet med den?
Deepfake er en neologisme sammensat af "deep learning" og "fake". Det beskriver en metode til at manipulere billeder, videoer eller lydformater (ved hjælp af kunstig intelligens) på en sådan måde, at det menneskelige øje eller øre næppe kan opfatte forfalskningerne. Men hvad er egentlig formålet med en deepfake, og hvordan genereres den i første omgang?
For at skabe en deepfake bruger man såkaldte neurale netværk. Disse netværk fungerer på samme måde som den menneskelige hjerne og kan ud fra et stort datasæt forudsige, hvordan andre data af samme type vil se ud. Hvis man derfor fodrer disse netværk med nok billeder, videoer og lydindhold, bliver de bedre og bedre og skaber manipulationer af højere kvalitet.
Et meget effektivt neuralt netværk er GAN. Det blev første gang nævnt i en videnskabelig artikel af Ian Goodfellow i 2014. I årenes løb fortsatte forskellige forskere med at udvide disse netværk og kombinere dem med hinanden. Som et resultat blev forfalskningerne af højere kvalitet og mere troværdige. Men lad os først definere, hvad et GAN er.
Et GAN - en forkortelse for Generative Adversarial Networks - er et netværk bestående af to algoritmer. Den ene algoritme forfalsker et billede (forger), mens den anden algoritme forsøger at opdage forfalskningen (investigator). Hvis det lykkes efterforskeren at identificere forfalskningen, lærer forfalskeren af det og forbedrer sig hele tiden. Denne proces kaldes også dyb læring.
Hvilke typer af deepfakes findes der?
Den første og nok mest udbredte type er udveksling af ansigter i billeder eller videoer, såkaldt face-swapping. Her bliver kendte menneskers hoveder som regel taget og placeret i en anden kontekst.
En lignende metode er voice swapping. Som navnet antyder, manipuleres stemmer eller generelt lydindhold til at lyde som en bestemt person. Denne metode kan videreudvikles med manipulation af ansigtsudtryk, så de talte ord matcher læbernes bevægelser og ansigtsbevægelser.
Endelig er der kropsdukketeater. Her analyseres kroppens bevægelser og kan endda imiteres i realtid.
Hvorfor er deepfakes så farlige?
Da teknologien blev taget i brug i 2014, blev den løbende udvidet og forbedret. I 2017 havde teknologien nået et punkt, hvor de første videoer kunne produceres. Det fik internetbrugere til at udnytte deepfakes til at manipulere med pornografisk indhold, som først blev gjort tilgængeligt på internetplatformen Reddit. Disse videoer bestod af berømtheder i kompromitterende positurer. Ifølge en undersøgelse foretaget af Sensity (dengang kendt som Deeptrace) var 96 % af alle deepfake-videoer i 2019 pornografiske og handlede udelukkende om kvinder.
"Udviklingen af fuld kunstig intelligens kan betyde enden på den menneskelige race."
- Stephen Hawking
Med tiden og den kontinuerlige videreudvikling af deep learning-processen blev der oprettet flere og flere YouTube-kanaler for at bedrage. Fakes af politikere, skuespillere og andre offentlige personer begyndte at se dagens lys. Fra 2018 til 2020 blev antallet af falske videoer fordoblet hvert halve år og nåede op på mere end 85.000 i december 2020.
Hao Li, en deepfake-ekspert, har advaret om, at vi snart ikke længere vil være i stand til at identificere deepfakes som fakes. Problemet er dog ikke selve teknologien, men manglen på midler til at genkende disse forfalskninger. "Deepfakes vil være perfekte om to til tre år," sagde Li.
Sandheden i dette udsagn afsløres i en programmeringskonkurrence initieret af Facebook AI i 2019. Gruppen udviklede et datasæt med 124.000 videoer, 8 ansigtsmodificeringsalgoritmer og tilhørende forskningsartikler. Men selv de bedste konkurrenter opnåede kun en detektionsrate på lidt over 65%.
"Dette resultat forstærker vigtigheden af at lære at generalisere til uforudsete eksempler, når man tager fat på udfordringerne med deepfake-detektion", forklarede en talsmand for Facebook AI.
Eksempel på misbrug af deepfakes
Omfanget af den skade, som deepfakes kan forårsage, kan blandt andet illustreres med en sag i Gabon i 2018. Præsident Ali Bongo, som ikke havde været i offentlighedens søgelys i meget lang tid, og som nogle troede var død, offentliggjorde en video af en tale. Politiske modstandere kaldte videoen for en deepfake, hvilket udløste et kupforsøg fra militærets side.
TW: Vold mod børn/unge
Endnu en skræmmende sag fortælles af X Gonzáles, som er en stærk fortaler for strengere våbenlove i USA. Gonzáles overlevede skolemassakren i Parkland og blev internationalt anerkendt for sin følelsesladede tale ved en mindehøjtidelighed efter begivenheden. Modstandere af yderligere våbenlovgivning bagvaskede Gonzáles i en video, hvor hun blev afbildet i færd med at rive den amerikanske forfatning i stykker. I den oprindelige video river hun en skydeskive i stykker.
En video, der blev produceret om den amerikanske demokrat Nancy Pelosi, demonstrerer evnen til at bytte stemme. Trumps tilhængere, og dermed konkurrenter til formanden for Repræsentanternes Hus, redigerede en video, så hun virkede fuld og noget forvirret. Fupnummeret blev klikket på millioner af gange på trods af, at Nancy Pelosi ikke drikker alkohol.
TW: Seksualiseret voilence
Den næste skandale handlede om Rana Ayyub. Den kvindelige indiske journalist kom med en kommentar om det nationalistiske BJP-parti og beskyldte det for at forsvare børnemishandlere. Som følge heraf og i et forsøg på at underminere hendes troværdighed blev der lavet en falsk pornofilm af hende af dem, der var kritiske over for hendes handlinger.
Hvilke apps er tilgængelige til at skabe deepfakes?
DeepFaceLab: Den nok mest kendte open source-applikation er DeepFaceLab. Ifølge appens udviklere er 95% af alle deepfake-videoer genereret med DeepFaceLab. Appen gør det muligt at bytte om på ansigter eller hele hoveder, ændre en persons alder eller justere fremmede menneskers læbebevægelser. DeepFaceLab er tilgængelig til Windows og Linux.
Zao: I modsætning til DeepFaceLab er Zao en app til smartphones. Den ekstremt populære applikation, der stammer fra Kina, skaber deepfake-videoer på få sekunder og er rettet mod underholdningsformål. Indtil videre er appen dog kun tilgængelig i Kina (eller for dem med et kinesisk telefonnummer) på Android og iOS. For nylig er appen blevet kritiseret for sin tvivlsomme privatlivspolitik. Brugerne giver afkald på alle rettigheder til deres egne billeder og videoer, når de bruger appen.
FaceApp: Applikationen blev mere og mere populær i 2019. Den tilbyder mange funktioner som foryngelse eller aldring, tilføjelse af skæg, make-up, tatoveringer, frisurer eller endda muligheden for at ændre ens køn. Men ligesom Zao har FaceApp også været genstand for megen kritik for sin privatlivspolitik. Også her afgiver man rettighederne til sit eget billede og sin egen video. Appen er tilgængelig til Android og iOS.
Avatarify: Endelig har vi Avatarify. Med denne applikation kan brugerne skabe live deepfakes i videochats. Teknologien er i stand til at genskabe ansigtsbevægelser som øjenblink og mundbevægelser i realtid og opnår dermed ekstremt realistiske efterligninger. De grundlæggende krav er dog ikke uden problemer. Du har brug for et kraftigt grafikkort og andre ekstra værktøjer for at kunne udføre installationen. Det fås til Windows, Mac og Linux eller i en skrabet udgave til iOS.
Hvordan genkender jeg en deepfake?
At afsløre en deepfake er ikke altid en let opgave. Først skal du altid tjekke konteksten for videoen eller billedet og overveje, om konteksten giver mening. FBI har også offentliggjort en liste, hvor de fremhæver karakteristika ved deepfakes. Denne liste inkluderer, men er ikke begrænset til:
- Visuelle indikatorer som forvrængninger, deformationer eller uoverensstemmelser.
- Tydelig afstand mellem øjnene/placering af øjnene
- Mærkbare bevægelser af hoved og krop
- Synkroniseringsproblemer mellem ansigts- og læbebevægelser og tilhørende lyd
- Tydelige visuelle forvrængninger, normalt i pupiller og øreflipper
- Utydelige eller slørede baggrunde
- Visuelle artefakter i billedet eller videoen
Men er deepfakes kun negative?
Deepfakes er ikke udelukkende negative. En positiv indvirkning, de har, kan ses i filmverdenen. For eksempel blev Luke Skywalker kunstigt deepfaked i serien Mandalorian. Disney planlægger også flere deepfake-film ved hjælp af deres Disney Megapixel deepfakes-teknologi. I fremtiden vil det være muligt at lave film med skuespillere, der allerede er døde.
Der sker også fremskridt inden for e-træning. Softwarevirksomheden Synthesia har udviklet en AI, der genererer videoer ud fra tekst. Videoerne indeholder kunstigt skabte mennesker, som kan gengive det ønskede indhold. I Synthesias tilfælde bruges denne teknologi til at skabe e-læringskurser, præsentationer, personaliserede videoer eller chatbots.
Et andet eksempel på innovativ brug af deepfake-teknologi er demonstreret af et forskerhold fra Moskva. De har formået at puste liv i Mona Lisa. Du kan forundres over det bevægelige oliemaleri på YouTube.
Beskyttelse mod deepfakes: Vigtigheden af at træne medarbejdernes bevidsthed om cybersikkerhed
Konklusionen er, at da udbredelsen af deepfake-teknologi fortsætter med at vokse, er det bydende nødvendigt for virksomheder at træffe proaktive foranstaltninger for at beskytte sig mod AI-cyberfarer. Det er afgørende at give medarbejderne en omfattende uddannelse i cybersikkerhed for at give dem den viden og de færdigheder, der er nødvendige for at identificere og mindske de risici, der er forbundet med deepfakes. Ved at investere i sådanne uddannelsesinitiativer kan virksomheder styrke deres forsvar og beskytte deres aktiviteter mod de voksende trusler, som ondsindet AI-manipulation udgør. Det handler ikke kun om at beskytte organisationens data og omdømme; det handler også om at give medarbejderne mulighed for at blive årvågne vogtere af digital integritet i en tid, hvor tillid og autenticitet i stigende grad er under belejring.