Mikä on deepfake? Muistatko vielä Barack Obaman sanat: "Presidentti Trump on täysi ja täydellinen ääliö!"?"? Aika provosoivaa, ei ole tottunut tällaisiin lausuntoihin Yhdysvaltain ex-presidentiltä. Mutta sanoiko hän todella niin? Ei tietenkään sanonut. Tämä video on niin sanottu deepfake ja sen on luonut Jordan Peele näyttääkseen, kuinka vaarallinen tällainen fake voi olla. Mutta syvennytäänpä hieman syvemmälle asiaan.
Mikä tarkalleen ottaen on deepfake, ja mitä tarkoitusta se palvelee?
Deepfake on neologismi, joka koostuu sanoista "deep learning" ja "fake". Se kuvaa menetelmää, jossa kuvia, videoita tai ääniformaatteja manipuloidaan (tekoälyn avulla) siten, että ihmissilmä tai -korva tuskin havaitsee väärennöksiä. Mutta mikä tarkalleen ottaen on deepfaken tarkoitus, ja miten se ylipäätään luodaan?
Syväjäljitelmän luomiseen käytetään niin sanottuja neuroverkkoja. Nämä verkot toimivat samalla tavalla kuin ihmisen aivot, ja kun niille annetaan suuri data-aineisto, ne pystyvät ennustamaan, miltä muut samantyyppiset datat voivat näyttää. Jos näille verkoille siis syötetään tarpeeksi kuvia, videoita ja äänisisältöä, ne kehittyvät yhä paremmiksi ja luovat entistä laadukkaampia manipulaatioita.
Yksi erittäin tehokas neuroverkko on GAN. Se mainittiin ensimmäisen kerran Ian Goodfellowin tieteellisessä artikkelissa vuonna 2014. Vuosien mittaan eri tutkijat ovat jatkaneet näiden verkkojen laajentamista ja yhdistämistä toisiinsa. Tämän seurauksena väärennöksistä tuli laadukkaampia ja uskottavampia. Mutta määritellään ensin, mikä GAN on.
GAN - lyhenne sanoista Generative Adversarial Networks - on verkko, joka koostuu kahdesta algoritmista. Toinen algoritmi väärentää kuvan (väärentäjä), kun taas toinen algoritmi yrittää havaita väärennöksen (tutkija). Jos tutkija onnistuu tunnistamaan väärennöksen, väärentäjä oppii siitä ja kehittyy jatkuvasti. Tätä prosessia kutsutaan myös syväoppimiseksi.
Minkälaisia deepfakes-tyyppejä on olemassa?
Ensimmäinen ja luultavasti yleisin tyyppi on kasvojen vaihtaminen kuvissa tai videoissa, niin sanottu kasvojen vaihtaminen. Tällöin tunnettujen ihmisten päät otetaan yleensä ja sijoitetaan eri yhteyteen.
Samanlainen menetelmä on äänen vaihtaminen. Kuten nimestä voi päätellä, ääniä tai yleistä äänisisältöä manipuloidaan kuulostamaan tietylle henkilölle. Tätä menetelmää voidaan kehittää edelleen kasvojen ilmeiden manipuloinnilla niin, että puhutut sanat vastaavat huulten liikettä ja kasvojen liikkeitä.
Lopuksi on vielä kehon nukketeatteri. Tässä kehon liikkeitä analysoidaan ja niitä voidaan jopa jäljitellä reaaliaikaisesti.
Miksi deepfakes on niin vaarallista?
Kun tekniikka aloitettiin vuonna 2014, sitä laajennettiin ja parannettiin jatkuvasti. Vuoteen 2017 mennessä teknologia oli saavuttanut pisteen, jossa ensimmäiset videot voitiin tuottaa. Tämä sai internetin käyttäjät hyödyntämään deepfakesia pornografisen sisällön manipuloimiseen, joka tuli ensimmäisen kerran saataville internetin Reddit-alustalla. Nämä videot koostuivat julkkiksista, jotka oli kuvattu vaarallisissa asennoissa. Sensityn (joka tunnettiin tuolloin nimellä Deeptrace) tekemän tutkimuksen mukaan 96 prosenttia kaikista vuoden 2019 deepfake-videoista oli pornografisia ja koski yksinomaan naisia.
"Täydellisen tekoälyn kehittyminen voi merkitä ihmiskunnan loppua."
- Stephen Hawking
Ajan myötä ja syväoppimisprosessin jatkuvan kehittymisen myötä YouTube-kanavia on luotu yhä enemmän huijausta varten. Poliitikkojen, näyttelijöiden ja muiden julkisuuden henkilöiden väärennökset alkoivat nähdä päivänvalon. Vuodesta 2018 vuoteen 2020 väärennettyjen videoiden määrä kaksinkertaistui puolen vuoden välein, ja joulukuussa 2020 niitä oli yli 85 000.
Deepfake-asiantuntija Hao Li on varoittanut, että pian emme enää pysty tunnistamaan deepfakeja väärennöksiksi. Ongelma ei kuitenkaan ole itse teknologia vaan keinojen puute näiden väärennösten tunnistamisessa. "Syväväärennökset ovat täydellisiä kahdessa tai kolmessa vuodessa", Li sanoi.
Tämän väitteen totuus paljastuu Facebookin tekoälyn vuonna 2019 käynnistämässä ohjelmointikilpailussa. Ryhmä kehitti 124 000 videon tietokokonaisuuden, 8 kasvojen muokkausalgoritmia ja niihin liittyvät tutkimusasiakirjat. Mutta parhaatkin kilpailijat saavuttivat vain hieman yli 65 prosentin havaitsemisasteen.
"Tämä tulos vahvistaa sitä, että on tärkeää oppia yleistämään ennakoimattomiin esimerkkeihin, kun vastataan väärennösten havaitsemisen haasteisiin", Facebookin tekoälyn tiedottaja selitti.
Esimerkki deepfakesin väärinkäytöstä
Syväväärennösten aiheuttamien vahinkojen laajuutta voi havainnollistaa muun muassa Gabonissa vuonna 2018 sattunut tapaus. Presidentti Ali Bongo, joka ei ollut ollut julkisuudessa pitkään aikaan ja jonka jotkut luulivat kuolleen, julkaisi videon puheestaan. Poliittiset vastustajat tituleerasivat videota deepfakeksi, mikä käynnisti armeijan vallankaappausyrityksen.
TW: Lapsiin/nuoriin kohdistuva väkivalta
X Gonzáles, joka on Yhdysvaltain aselakien tiukentamisen vahva puolestapuhuja, kertoo jälleen yhden pelottavan tapauksen. Gonzáles on Parklandin koulumurhasta selvinnyt ja sai kansainvälistä tunnustusta tunteikkaasta puheestaan tapahtuman jälkeisessä muistotilaisuudessa. Aselainsäädännön vastustajat mustamaalasivat Gonzálesia videolla, jossa hän repii Yhdysvaltain perustuslakia. Alkuperäisellä videolla hän repii maalitaulua.
Yhdysvaltalaisesta demokraatista Nancy Pelosista tuotettu video osoittaa äänen vaihtamisen kyvyn. Trumpin kannattajat ja siten edustajainhuoneen puhemiehen kilpailijat muokkasivat videota niin, että hän vaikuttaa humalaiselta ja hieman sekavalta. Väärennöstä klikattiin miljoonia kertoja, vaikka Nancy Pelosi ei juo alkoholia.
TW: Seksualisoitunut väkivalta
Seuraava skandaali koski Rana Ayyubia. Intialainen naistoimittaja kommentoi kansallismielistä BJP-puoluetta ja syytti sitä lasten hyväksikäyttäjien puolustamisesta. Tämän seurauksena ja yrityksenä heikentää hänen uskottavuuttaan hänen toimintaansa arvostelevat tahot tekivät hänestä väärennetyn pornofilmin.
Mitä sovelluksia on saatavilla deepfakesin luomiseen?
DeepFaceLab: DeepFaceLab on luultavasti tunnetuin avoimen lähdekoodin sovellus. Sovelluksen kehittäjien mukaan 95 prosenttia kaikista deepfake-videoista luodaan DeepFaceLabilla. Sovelluksen avulla on mahdollista vaihtaa kasvoja tai kokonaisia päitä, muokata henkilön ikää tai säätää tuntemattomien ihmisten huulien liikkeitä. DeepFaceLab on saatavilla Windowsille ja Linuxille.
Zao: Toisin kuin DeepFaceLab, Zao on sovellus älypuhelimille. Kiinasta peräisin oleva, erittäin suosittu sovellus luo deepfake-videoita sekunneissa, ja se on suunnattu viihdetarkoituksiin. Toistaiseksi sovellus on kuitenkin saatavilla vain Kiinassa (tai niille, joilla on kiinalainen puhelinnumero) Androidilla ja iOS:llä. Viime aikoina sovellusta on kritisoitu sen kyseenalaisesta tietosuojakäytännöstä. Käyttäjät luopuvat sovellusta käyttäessään kaikista oikeuksistaan omiin kuviinsa ja videoihinsa.
FaceApp: FaceApp: Sovellus saavutti kasvavaa suosiota vuonna 2019. Se tarjoaa lukuisia toimintoja, kuten nuorentaminen tai ikääntyminen, parran lisääminen, meikkaaminen, tatuoinnit, kampaukset tai jopa mahdollisuus vaihtaa sukupuolta. Zaon tavoin myös FaceApp on kuitenkin saanut paljon kritiikkiä tietosuojaperiaatteidensa vuoksi. Tässäkin luovutetaan oikeudet omaan kuvaan ja videoon. Sovellus on saatavilla Androidille ja iOS:lle.
Avatarify: Lopuksi meillä on Avatarify. Tämän sovelluksen avulla käyttäjät voivat luoda live-syväjäljitelmiä videokeskusteluissa. Teknologia pystyy luomaan kasvojen liikkeet, kuten silmien räpäytykset ja suun liikkeet, uudelleen reaaliajassa ja saa näin aikaan erittäin realistisia jäljitelmiä. Perusedellytykset eivät kuitenkaan ole ongelmattomia. Tarvitset tehokkaan näytönohjaimen ja muita lisätyökaluja, jotta voit suorittaa asennuksen. Se on saatavana Windowsille, Macille ja Linuxille tai kevennetyssä muodossa iOS:lle.
Mistä tunnistan väärennöksen?
Syväväärennöksen paljastaminen ei ole aina helppo tehtävä. Tarkista aina ensin videon tai kuvan konteksti ja mieti, onko asiayhteydessä järkeä. FBI on myös julkaissut listan, jossa se nostaa esiin deepfakesin ominaisuuksia. Tähän luetteloon kuuluvat muun muassa seuraavat:
- Visuaaliset indikaattorit, kuten vääristymät, muodonmuutokset tai epäjohdonmukaisuudet.
- Silmien erottuva etäisyys toisistaan/silmien sijainti
- Huomattavat pään ja vartalon liikkeet
- Kasvojen ja huulten liikkeiden ja niihin liittyvien äänien synkronointiongelmat
- Selvät näkövääristymät, yleensä pupillit ja korvalehdet.
- Epäselvät tai epäselvät taustat
- Kuvassa tai videossa olevat visuaaliset artefaktit
Mutta ovatko deepfakes vain negatiivisia?
Deepfakes ei ole yksinomaan negatiivinen. Yksi niiden myönteinen vaikutus on nähtävissä elokuvamaailmassa. Esimerkiksi Luke Skywalker oli keinotekoinen syväfakta Mandalorian-sarjassa. Disney suunnittelee myös lisää deepfake-elokuvia, joissa käytetään sen Disney Megapixel -syväfaketeknologiaa. Tulevaisuudessa on mahdollista tehdä elokuvia jo kuolleiden näyttelijöiden kanssa.
Myös sähköisen koulutuksen alalla on edistytty. Ohjelmistoyritys Synthesia on kehittänyt tekoälyn, joka tuottaa videoita tekstistä. Videot sisältävät keinotekoisesti luotuja ihmisiä, jotka pystyvät toistamaan haluttua sisältöä. Synthesian tapauksessa tätä teknologiaa käytetään verkko-oppimiskurssien, esitysten, personoitujen videoiden tai chatbottien luomiseen.
Toinen esimerkki deepfake-teknologian innovatiivisesta käytöstä on moskovalainen tutkimusryhmä. He ovat onnistuneet herättämään henkiin Mona Lisan. Voit ihastella liikkuvaa öljymaalausta YouTubessa.
Suojautuminen väärennöksiltä: Henkilöstön tietoisuutta kyberturvallisuudesta koskevan koulutuksen tärkeys
Yhteenvetona voidaan todeta, että deepfake-teknologian yleistymisen jatkuessa on välttämätöntä, että yritykset ryhtyvät ennakoiviin toimenpiteisiin suojautuakseen tekoälyn aiheuttamilta kybervaaroilta. Kattavan kyberturvallisuustietoisuuskoulutuksen tarjoaminen henkilöstölle on ratkaisevan tärkeää, jotta työntekijät saavat tarvittavat tiedot ja taidot deepfakeihin liittyvien riskien tunnistamiseen ja vähentämiseen. Investoimalla tällaisiin koulutusaloitteisiin yritykset voivat vahvistaa puolustustaan ja turvata toimintansa pahantahtoisen tekoälyn manipuloinnin aiheuttamilta kehittyviltä uhkilta. Kyse ei ole vain organisaation tietojen ja maineen suojaamisesta, vaan myös työntekijöiden voimaannuttamisesta, jotta heistä tulisi valppaita digitaalisen koskemattomuuden vartijoita aikakaudella, jolloin luottamus ja aitous ovat yhä useammin piiritettynä.