Deepfake: Wahn oder Wirklichkeit? Wie KI unser Vertrauen missbraucht
Veröffentlicht am: 24 Feb. 2024
Zuletzt geändert am: 8 Sep. 2025
Was ist ein Deepfake? Erinnern Sie sich noch an die Worte von Barack Obama: „Präsident Trump ist ein totaler Volltrottel!“? Ziemlich provokant, solche Aussagen ist man von dem Ex-US-Präsidenten nicht gewohnt. Aber hat er das wirklich gesagt? Natürlich hat er das nicht. Dieses Video ist ein sogenannter Deepfake und wurde von Jordan Peele erstellt, um zu zeigen, wie gefährlich ein solcher Fake sein kann. Aber lassen Sie uns ein wenig tiefer in die Materie einsteigen.
Was genau ist ein Deepfake und welchem Zweck dient er?
Deepfake ist ein Neologismus, der sich aus „Deep Learning“ und „Fake“ zusammensetzt. Es beschreibt eine Methode, Bilder, Videos oder Audioformate (mit Hilfe von künstlicher Intelligenz) so zu manipulieren, dass das menschliche Auge oder Ohr die Fälschungen kaum wahrnehmen kann. Aber was genau ist der Zweck eines Deepfakes und wie genau wird er überhaupt erzeugt?
Um ein Deepfake zu erstellen, werden sogenannte neuronale Netze verwendet. Diese Netzwerke funktionieren ähnlich wie das menschliche Gehirn und können bei einem großen Datensatz vorhersagen, wie andere Daten desselben Typs aussehen könnten. Wenn Sie diese Netzwerke also mit genügend Bildern, Videos und Audioinhalten füttern, werden sie immer besser und schaffen immer hochwertigere Manipulationen.
Ein sehr effektives neuronales Netzwerk ist das GAN. Es wurde erstmals 2014 in einer wissenschaftlichen Arbeit von Ian Goodfellow erwähnt. Im Laufe der Jahre haben verschiedene Forscher diese Netzwerke immer weiter ausgebaut und miteinander kombiniert. Infolgedessen wurden die Fälschungen immer hochwertiger und glaubwürdiger. Aber lassen Sie uns zunächst definieren, was ein GAN ist.
Ein GAN – kurz für Generative Adversarial Networks – ist ein Netzwerk, das aus zwei Algorithmen besteht. Ein Algorithmus fälscht ein Bild (Fälscher), während der andere Algorithmus versucht, die Fälschung zu erkennen (Ermittler). Gelingt es dem Ermittler, die Fälschung zu erkennen, lernt der Fälscher daraus und verbessert sich ständig. Dieser Prozess wird auch als Deep Learning bezeichnet.
Welche Arten von Deepfakes gibt es?
Die erste und wahrscheinlich am weitesten verbreitete Art ist der Austausch von Gesichtern in Bildern oder Videos, das sogenannte Face-Swapping. Dabei werden in der Regel die Köpfe berühmter Menschen genommen und in einen anderen Kontext gestellt.
Eine ähnliche Methode ist das Voice Swapping. Wie der Name schon sagt, werden Stimmen oder allgemeine Audioinhalte so manipuliert, dass sie wie eine bestimmte Person klingen. Diese Methode kann mit der Manipulation der Mimik weiter ausgebaut werden, so dass die gesprochenen Worte mit der Bewegung der Lippen und den Gesichtsbewegungen übereinstimmen.
Schließlich gibt es noch das Körperpuppenspiel. Hier werden die Körperbewegungen analysiert und können sogar in Echtzeit nachgeahmt werden.
Warum sind Deepfakes so gefährlich?
Als die Technologie im Jahr 2014 begann, wurde sie stetig erweitert und verbessert. Im Jahr 2017 war die Technologie so weit, dass die ersten Videos produziert werden konnten. Dies führte dazu, dass Internetnutzer Deepfakes für die Manipulation von pornografischen Inhalten nutzten, die zuerst auf der Internetplattform Reddit veröffentlicht wurden. Diese Videos bestanden aus Prominenten, die in kompromittierenden Posen dargestellt wurden. Laut einer Studie von Sensity (damals bekannt als Deeptrace) waren 96 % aller Deepfake-Videos im Jahr 2019 pornografisch und betrafen ausschließlich Frauen.
„Die Entwicklung einer vollständigen künstlichen Intelligenz könnte das Ende der menschlichen Ethnie bedeuten.“
– Stephen Hawking
Mit der Zeit und der kontinuierlichen Weiterentwicklung des Deep Learning-Prozesses wurden immer mehr YouTube-Kanäle zur Täuschung erstellt. Fälschungen von Politikern, Schauspielern und anderen Persönlichkeiten des öffentlichen Lebens erblickten das Licht der Welt. Von 2018 bis 2020 verdoppelte sich die Zahl der gefälschten Videos alle sechs Monate und erreichte im Dezember 2020 mehr als 85.000.
Hao Li, ein Experte für Deepfakes, hat davor gewarnt, dass wir bald nicht mehr in der Lage sein werden, Deepfakes als Fälschungen zu erkennen. Das Problem ist jedoch nicht die Technologie selbst, sondern der Mangel an Mitteln zur Erkennung dieser Fälschungen. „Deepfakes werden in zwei bis drei Jahren perfekt sein“, sagte Li.
Der Wahrheitsgehalt dieser Aussage zeigt sich in einem Programmierwettbewerb, der von Facebook AI im Jahr 2019 initiiert wurde. Die Gruppe entwickelte einen Datensatz von 124.000 Videos, 8 Algorithmen zur Gesichtsveränderung und dazugehörige Forschungspapiere. Aber selbst die besten Teilnehmer erreichten nur eine Erkennungsrate von knapp über 65%.
„Dieses Ergebnis unterstreicht, wie wichtig es ist, zu lernen, auf unvorhergesehene Beispiele zu verallgemeinern, wenn man sich den Herausforderungen der Deepfake-Erkennung stellt“, erklärte ein Sprecher von Facebook AI.
Beispiel für den Missbrauch von Deepfakes
Das Ausmaß des Schadens, den Deepfakes anrichten können, lässt sich neben anderen Beispielen an einem Fall in Gabun im Jahr 2018 veranschaulichen. Präsident Ali Bongo, der schon lange nicht mehr in der Öffentlichkeit stand und von manchen für tot gehalten wurde, veröffentlichte ein Video von einer Rede. Politische Gegner bezeichneten das Video als Fälschung und lösten damit einen Putschversuch des Militärs aus.
TW: Gewalt gegen Kinder/Jugendliche
Ein weiterer erschreckender Fall wird von X Gonzáles erzählt, einer entschiedenen Verfechterin strengerer Waffengesetze in den USA. Gonzáles ist eine Überlebende des Schulmassakers von Parkland und erlangte internationale Anerkennung für ihre emotionale Rede bei einem Gedenkgottesdienst nach dem Ereignis. Gegner weiterer Waffengesetze diffamierten Gonzáles in einem Video, in dem sie die amerikanische Verfassung zerreißt. In dem Originalvideo zerreißt sie eine Zielscheibe.
Ein Video, das über die US-Demokratin Nancy Pelosi produziert wurde, demonstriert die Fähigkeit des Stimmenaustauschs. Trumps Unterstützer und damit Konkurrenten der Sprecherin des Repräsentantenhauses haben ein Video so bearbeitet, dass sie betrunken und etwas verwirrt wirkt. Die Fälschung wurde millionenfach angeklickt, obwohl Nancy Pelosi keinen Alkohol trinkt.
TW: Sexuelle Belästigung
Der nächste Skandal betraf Rana Ayyub. Die indische Journalistin äußerte sich über die nationalistische BJP-Partei und beschuldigte sie, Kinderschänder zu verteidigen. Um ihre Glaubwürdigkeit zu untergraben, wurde daraufhin ein gefälschter Pornofilm von denjenigen gedreht, die ihr Handeln kritisierten.
Welche Apps gibt es, um Deepfakes zu erstellen?
DeepFaceLab: Die wohl bekannteste Open-Source-Anwendung ist DeepFaceLab. Nach Angaben der Entwickler der App werden 95 % aller Deepfake-Videos mit DeepFaceLab erstellt. Die App ermöglicht es, Gesichter oder ganze Köpfe auszutauschen, das Alter einer Person zu ändern oder die Lippenbewegungen von Fremden anzupassen. DeepFaceLab ist für Windows und Linux erhältlich.
Zao: Im Gegensatz zu DeepFaceLab ist Zao eine App für Smartphones. Die aus China stammende, äußerst beliebte Anwendung erstellt Deepfake-Videos in Sekundenschnelle und ist auf Unterhaltungszwecke ausgerichtet. Bislang ist die App jedoch nur in China (oder für diejenigen mit einer chinesischen Telefonnummer) auf Android und iOS verfügbar. In letzter Zeit wurde die App wegen ihrer fragwürdigen Datenschutzpolitik kritisiert. Die Nutzer geben alle Rechte an ihren eigenen Bildern und Videos ab, wenn sie die App verwenden.
FaceApp: Diese Anwendung erfreut sich 2019 zunehmender Beliebtheit. Sie bietet zahlreiche Funktionen wie Verjüngung oder Alterung, Hinzufügen von Bärten, Make-up, Tattoos, Frisuren oder sogar die Möglichkeit, das Geschlecht zu ändern. Doch genau wie Zao ist auch FaceApp wegen seiner Datenschutzrichtlinien stark in die Kritik geraten. Auch hier werden die Rechte am eigenen Bild und Video abgetreten. Die App ist für Android und iOS verfügbar.
Avatarify: Schließlich haben wir noch Avatarify. Mit dieser Anwendung können Benutzer in Videochats live Deepfakes erstellen. Die Technologie ist in der Lage, Gesichtsbewegungen wie Augenblinzeln und Mundbewegungen in Echtzeit nachzubilden und erreicht so extrem realistische Imitationen. Allerdings sind die Grundvoraussetzungen nicht ohne Schwierigkeiten. Sie benötigen eine leistungsstarke Grafikkarte und andere zusätzliche Tools, um die Installation durchführen zu können. Es ist für Windows, Mac und Linux oder in einer abgespeckten Form für iOS erhältlich.
Wie erkenne ich einen Deepfake?
Die Entlarvung eines Deepfakes ist nicht immer eine einfache Aufgabe. Prüfen Sie zunächst immer den Kontext des Videos oder Bildes und überlegen Sie, ob der Kontext Sinn ergibt. Das FBI hat auch eine Liste veröffentlicht, in der es Merkmale von Deepfakes hervorhebt. Diese Liste umfasst unter anderem:
- Visuelle Indikatoren wie Verzerrungen, Verformungen oder Ungereimtheiten.
- Ausgeprägte Augenabstände/Position der Augen
- Auffällige Kopf- und Körperbewegungen
- Synchronisationsprobleme zwischen Gesichts- und Lippenbewegungen und dem dazugehörigen Ton
- Ausgeprägte visuelle Verzerrungen, in der Regel bei Pupillen und Ohrläppchen
- Unscharfe oder verschwommene Hintergründe
- Visuelle Artefakte im Bild oder Video
Aber sind Deepfakes nur negativ?
Deepfakes sind nicht ausschließlich negativ. Eine positive Auswirkung, die sie haben, lässt sich in der Filmwelt beobachten. Zum Beispiel wurde Luke Skywalker in der Serie Mandalorian künstlich deepfaked. Auch Disney plant weitere Deepfake-Filme mit seiner Disney Megapixel Deepfake-Technologie. In Zukunft wird es möglich sein, Filme mit Schauspielern zu drehen, die bereits verstorben sind.
Auch auf dem Gebiet des E-Trainings werden Fortschritte gemacht. Das Softwareunternehmen Synthesia hat eine KI entwickelt, die Videos aus Text generiert. Die Videos enthalten künstlich geschaffene Personen, die den gewünschten Inhalt wiedergeben können. Im Fall von Synthesia wird diese Technologie verwendet, um E-Learning-Kurse, Präsentationen, personalisierte Videos oder Chatbots zu erstellen.
Ein weiteres Beispiel für den innovativen Einsatz der Deepfake-Technologie wird von einem Forscherteam aus Moskau demonstriert. Sie haben es geschafft, der Mona Lisa Leben einzuhauchen. Sie können das bewegte Ölgemälde auf YouTube bewundern.
Schutz vor Deepfakes: Die Bedeutung von Schulungen zum Thema Cybersicherheit für Mitarbeiter
Zusammenfassend lässt sich sagen, dass Unternehmen angesichts der zunehmenden Verbreitung von Deepfake-Technologie unbedingt proaktive Maßnahmen ergreifen müssen, um sich vor KI-Cyber-Gefahren zu schützen. Umfassende Schulungen zum Thema Cybersicherheit für Mitarbeiter sind entscheidend, um sie mit dem Wissen und den Fähigkeiten auszustatten, die sie benötigen, um die mit Deepfakes verbundenen Risiken zu erkennen und zu mindern. Durch die Investition in solche Schulungsinitiativen können Unternehmen ihre Verteidigung stärken und ihren Betrieb vor den sich entwickelnden Bedrohungen durch bösartige KI-Manipulationen schützen. Es geht nicht nur darum, die Daten und den Ruf des Unternehmens zu schützen, sondern auch darum, die Mitarbeiter in die Lage zu versetzen, wachsame Hüter der digitalen Integrität in einer Zeit zu werden, in der Vertrauen und Authentizität zunehmend unter Beschuss geraten.