Tilbage
Cyber security uddannelse og software | MetaCompliance

Produkter

Oplev vores pakke af personlige Security Awareness Training-løsninger, der er designet til at styrke og uddanne dit team mod moderne cybertrusler. Fra politikstyring til phishing-simulationer - vores platform udstyrer din arbejdsstyrke med den viden og de færdigheder, der er nødvendige for at beskytte din organisation.

eLearning om cyber security

Cyber Security eLearning for at udforske vores prisvindende eLearning-bibliotek, der er skræddersyet til alle afdelinger

Automatisering af sikkerhedsbevidsthed

Planlæg din årlige oplysningskampagne med et par klik

Simulering af phishing

Stop phishing-angreb i deres spor med prisvindende phishing-software

Forvaltning af politikker

Centraliser dine politikker ét sted, og håndter politikkernes livscyklus uden besvær

Forvaltning af privatlivets fred

Styr, overvåg og administrer nemt overholdelse

Håndtering af hændelser

Tag kontrol over interne hændelser og afhjælp det, der betyder noget

Tilbage
Industri

Industrier

Udforsk alsidigheden af vores løsninger på tværs af forskellige brancher. Fra den dynamiske teknologisektor til sundhedssektoren kan du dykke ned i, hvordan vores løsninger skaber bølger på tværs af flere sektorer. 


Finansielle tjenesteydelser

Skab en første forsvarslinje for finansielle serviceorganisationer

Regeringer

En go-to-løsning til sikkerhedsbevidsthed for regeringer

Virksomheder

En løsning til træning af sikkerhedsbevidsthed i store virksomheder

Fjernarbejdere

Indlejr en kultur af sikkerhedsbevidsthed - også derhjemme

Uddannelsessektoren

Engagerende træning i sikkerhedsbevidsthed for uddannelsessektoren

Sundhedspersonale

Se vores skræddersyede sikkerhedsoplysning til sundhedspersonale

Teknisk industri

Forandring af sikkerhedsbevidsthedstræning i teknologibranchen

Overholdelse af NIS2

Støt dine Nis2-krav med initiativer til bevidstgørelse om cybersikkerhed

Tilbage
Ressourcer

Ressourcer

Fra plakater og politikker til ultimative vejledninger og casestudier - vores gratis awareness-aktiver kan bruges til at forbedre bevidstheden om cybersikkerhed i din organisation.

Cybersikkerhed for dummies

En uundværlig ressource til at skabe en kultur af cyberbevidsthed

Dummies guide til cybersikkerhed Elearning

Den ultimative guide til implementering af effektiv e-learning om cybersikkerhed

Den ultimative guide til phishing

Uddan medarbejderne i, hvordan man opdager og forebygger phishing-angreb

Gratis oplysningsplakater

Download disse gratis plakater for at øge medarbejdernes årvågenhed

Politik til bekæmpelse af phishing

Skab en sikkerhedsbevidst kultur og skab bevidsthed om cybersikkerhedstrusler

Casestudier

Hør, hvordan vi hjælper vores kunder med at skabe positiv adfærd i deres organisationer

A-Z-terminologi om cybersikkerhed

En ordliste med uundværlige termer inden for cybersikkerhed

Adfærdsmæssig modenhedsmodel for cybersikkerhed

Auditér din awareness-træning og benchmark din organisation i forhold til best practice

Gratis ting

Download vores gratis Awareness Assets for at forbedre bevidstheden om cybersikkerhed i din organisation

Tilbage
MetaCompliance | Cyber security uddannelse for medarbejdere

Om

Med over 18 års erfaring på markedet for cybersikkerhed og compliance leverer MetaCompliance en innovativ løsning til automatisering af medarbejdernes informationssikkerhedsbevidsthed og hændelseshåndtering. MetaCompliance-platformen blev skabt for at imødekomme kundernes behov for en enkelt, omfattende løsning til at håndtere de menneskelige risici omkring cybersikkerhed, databeskyttelse og compliance.

Hvorfor vælge os?

Lær, hvorfor Metacompliance er den betroede partner til træning i sikkerhedsbevidsthed

Specialister i medarbejderengagement

Vi gør det lettere at engagere medarbejderne og skabe en kultur med cyberbevidsthed

Automatisering af sikkerhedsbevidsthed

Automatiser nemt træning i sikkerhedsbevidsthed, phishing og politikker på få minutter

Lederskab

Mød MetaCompliance-ledelsesteamet

MetaBlog

Bliv informeret om emner inden for cybersikkerheds-awareness-træning og begræns risikoen i din organisation.

Vrangforestilling eller virkelighed? Hvordan kunstige intelligenser misbruger vores tillid

deepfake

om forfatteren

Del dette indlæg

Kan du stadig huske Barack Obamas ord? "Præsident Trump er en total og komplet idiot!"? Ganske provokerende, man er ikke vant til sådanne udtalelser fra den tidligere amerikanske præsident. Men sagde han virkelig det? Selvfølgelig gjorde han ikke det. Denne video er en såkaldt deepfake og blev skabt af Jordan Peele for at vise, hvor farlig sådan en fake kan være.1 Men lad os dykke lidt dybere ned i sagen.

Deepfake er en neologisme sammensat af "deep learning" og "fake". Det beskriver en metode til at manipulere billeder, videoer eller lydformater (ved hjælp af kunstig intelligens) på en sådan måde, at det menneskelige øje eller øre næppe kan opfatte forfalskningerne. Men hvad er egentlig formålet med en deepfake, og hvordan genereres den i første omgang?

For at skabe en deepfake bruger man såkaldte neurale netværk. Disse netværk fungerer på samme måde som den menneskelige hjerne og kan ud fra et stort datasæt forudsige, hvordan andre data af samme type vil se ud. Hvis man derfor fodrer disse netværk med nok billeder, videoer og lydindhold, bliver de bedre og bedre og skaber manipulationer af højere kvalitet.

Et meget effektivt neuralt netværk er GAN. Det blev første gang nævnt i en videnskabelig artikel af Ian Goodfellow i 2014. I årenes løb fortsatte forskellige forskere med at udvide disse netværk og kombinere dem med hinanden. Som et resultat blev forfalskningerne af højere kvalitet og mere troværdige. Men lad os først definere, hvad et GAN er.

Et GAN - en forkortelse for Generative Adversarial Networks - er et netværk bestående af to algoritmer. Den ene algoritme forfalsker et billede (forger), mens den anden algoritme forsøger at opdage forfalskningen (investigator). Hvis det lykkes efterforskeren at identificere forfalskningen, lærer forfalskeren af det og forbedrer sig hele tiden. Denne proces kaldes også dyb læring.

Hvilke typer af deepfakes findes der?

Den første og nok mest udbredte type er udveksling af ansigter i billeder eller videoer, såkaldt face-swapping. Her bliver kendte menneskers hoveder som regel taget og placeret i en anden kontekst.

En lignende metode er voice swapping. Som navnet antyder, manipuleres stemmer eller generelt lydindhold til at lyde som en bestemt person. Denne metode kan videreudvikles med manipulation af ansigtsudtryk, så de talte ord matcher læbernes bevægelser og ansigtsbevægelser.

Endelig er der kropsdukketeater. Her analyseres kroppens bevægelser og kan endda imiteres i realtid.

Hvorfor er deepfakes så farlige?

Da teknologien begyndte i 2014, blev den løbende udbygget og forbedret. I 2017 havde teknologien nået det punkt, hvor de første videoer kunne produceres. Det fik internetbrugere til at udnytte deepfakes til manipulation af pornografisk indhold, som først blev gjort tilgængeligt på internetplatformen Reddit. Disse videoer bestod af berømtheder afbildet i kompromitterende stillinger. Ifølge en undersøgelse foretaget af Sensity (dengang kendt som Deeptrace) var 96% af alle deepfake-videoer i 2019 pornografiske og handlede udelukkende om kvinder.2

"Udviklingen af fuld kunstig intelligens kan betyde enden på den menneskelige race."
- Stephen Hawking

Med tiden og den fortsatte videreudvikling af deep learning-processen blev der oprettet flere og flere YouTube-kanaler for at bedrage. Fakes af politikere, skuespillere og andre offentlige personer begyndte at se dagens lys. Fra 2018 til 2020 blev antallet af falske videoer fordoblet hvert halve år og nåede op på mere end 85.000 i december 2020.3

Hao Li, en deepfake-ekspert, har advaret om, at vi snart ikke længere vil være i stand til at identificere deepfakes som fakes. Problemet er dog ikke selve teknologien, men manglen på midler til at genkende disse forfalskninger. "Deepfakes vil være perfekte om to til tre år," sagde Li.4

Sandheden i dette udsagn afsløres i en programmeringskonkurrence initieret af Facebook AI i 2019. Gruppen udviklede et datasæt med 124.000 videoer, 8 ansigtsmodificeringsalgoritmer og tilhørende forskningsartikler. Men selv de bedste konkurrenter opnåede kun en detektionsrate på lidt over 65%.

"Dette resultat forstærker vigtigheden af at lære at generalisere til uforudsete eksempler, når man tager fat på udfordringerne ved deepfake-detektion.", forklarede en talsmand for Facebook AI.5

Eksempel på misbrug af deepfakes

Omfanget af den skade, som deepfakes kan forårsage, kan blandt andet illustreres af en sag i Gabon i 2018. Præsident Ali Bongosom ikke havde været i offentlighedens søgelys i meget lang tid og af nogle blev anset for at være død, offentliggjorde en video af en tale. Politiske modstandere kaldte videoen for en deepfake, hvilket udløste et kupforsøg fra militærets side.

TW: Vold mod børn/unge
Endnu en skræmmende sag er fortalt af X Gonzálesen stærk fortaler for strengere våbenlove i USA. Gonzáles overlevede massakren på Parkland-skolen og fik international anerkendelse for sin følelsesladede tale ved en mindehøjtidelighed efter begivenheden. Modstandere af yderligere våbenlovgivning bagvaskede Gonzáles i en video, hvor hun river den amerikanske forfatning i stykker. I den originale video river hun en skydeskive i stykker.

En video, der blev produceret om den amerikanske demokrat, Nancy Pelosidemonstrerer evnen til at bytte stemmer. Trumps tilhængere, og dermed konkurrenter til formanden for Repræsentanternes Hus, har redigeret en video, så hun ser beruset og lettere forvirret ud. Den falske video blev klikket på millioner af gange, på trods af at Nancy Pelosi ikke drikker alkohol.

TW: Seksualiseret blufærdighed
Den næste skandale, det handler om Rana Ayyub. Den kvindelige indiske journalist udtalte sig om det nationalistiske parti BJP og beskyldte det for at forsvare børnemishandlere. Som følge heraf og i et forsøg på at underminere hendes troværdighed blev der lavet en falsk pornofilm af hende af dem, der var kritiske over for hendes handlinger.

Hvilke apps er tilgængelige til at skabe deepfakes?

DeepFaceLab: Den nok mest kendte open source-applikation er DeepFaceLab. Ifølge appens udviklere er 95% af alle deepfake-videoer genereret med DeepFaceLab. Appen gør det muligt at bytte om på ansigter eller hele hoveder, ændre en persons alder eller justere fremmede menneskers læbebevægelser. DeepFaceLab er tilgængelig til Windows og Linux.

Zao: I modsætning til DeepFaceLab er Zao en app til smartphones. Den ekstremt populære applikation, der stammer fra Kina, skaber deepfake-videoer på få sekunder og er rettet mod underholdningsformål. Indtil videre er appen dog kun tilgængelig i Kina (eller for dem med et kinesisk telefonnummer) på Android og iOS. For nylig er appen blevet kritiseret for sin tvivlsomme privatlivspolitik. Brugerne giver afkald på alle rettigheder til deres egne billeder og videoer, når de bruger appen.

FaceApp: Applikationen blev mere og mere populær i 2019. Den tilbyder mange funktioner som foryngelse eller aldring, tilføjelse af skæg, make-up, tatoveringer, frisurer eller endda muligheden for at ændre ens køn. Men ligesom Zao har FaceApp også været genstand for megen kritik for sin privatlivspolitik. Også her afgiver man rettighederne til sit eget billede og sin egen video. Appen er tilgængelig til Android og iOS.

Avatarify: Endelig har vi Avatarify. Med denne applikation kan brugerne skabe live deepfakes i videochats. Teknologien er i stand til at genskabe ansigtsbevægelser som øjenblink og mundbevægelser i realtid og opnår dermed ekstremt realistiske efterligninger. De grundlæggende krav er dog ikke uden problemer. Du har brug for et kraftigt grafikkort og andre ekstra værktøjer for at kunne udføre installationen. Det fås til Windows, Mac og Linux eller i en skrabet udgave til iOS.

Hvordan genkender jeg en deepfake?

At afsløre en deepfake er ikke altid en let opgave. Først skal du altid tjekke konteksten for videoen eller billedet og overveje, om konteksten giver mening. FBI har også udgivet en liste6, hvor de fremhæver karakteristika ved deepfakes. Denne liste inkluderer, men er ikke begrænset til:

  • Visuelle indikatorer som forvrængninger, deformationer eller uoverensstemmelser.
  • Tydelig afstand mellem øjnene/placering af øjnene
  • Mærkbare bevægelser af hoved og krop
  • Synkroniseringsproblemer mellem ansigts- og læbebevægelser og tilhørende lyd
  • Tydelige visuelle forvrængninger, normalt i pupiller og øreflipper
  • Utydelige eller slørede baggrunde
  • Visuelle artefakter i billedet eller videoen

Den DeepFake-o-meter kan også bruges til at analysere og afsløre videofiler.

Men er deepfakes kun negative?

Deepfakes er ikke udelukkende negative. En positiv indvirkning, de har, kan ses i filmverdenen. For eksempel blev Luke Skywalker kunstigt deepfaked i serien Mandalorian. Disney planlægger også flere deepfake-film ved hjælp af deres Disney Megapixel deepfakes-teknologi. I fremtiden vil det være muligt at lave film med skuespillere, der allerede er døde.

Der sker også fremskridt inden for e-træning. Softwarevirksomheden Synthesia har udviklet en AI, der genererer videoer ud fra tekst. Videoerne indeholder kunstigt skabte mennesker, som kan gengive det ønskede indhold. I Synthesias tilfælde bruges denne teknologi til at skabe e-læringskurser, præsentationer, personaliserede videoer eller chatbots.

Et andet eksempel på innovativ brug af deepfake-teknologi er demonstreret af et forskerhold fra Moskva. De har formået at puste liv i Mona Lisa. Du kan forundres over det bevægelige oliemaleri på YouTube.

1 https://www.youtube.com/watch?v=cQ54GDm1eL0
2 https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
3 https://sensity.ai/how-to-detect-a-deepfake/
4 https://www.cnbc.com/2019/09/20/hao-li-perfectly-real-deepfakes-will-arrive-in-6-months-to-a-year.html
5 https://ai.facebook.com/datasets/dfdc
6 https://www.ic3.gov/Media/News/2021/210310-2.pdf

Andre artikler om Cyber Security Awareness Training, som du måske finder interessante