Gegen Fälschungen auf Facebook und Co. 20.07.2020, 06:22 Uhr

Social Media: Mit Frequenzanalysen Deep Fakes auf der Spur

Immer häufiger tauchen gefälschte Bilder in Online-Medien auf. Diese sogenannten Deep Fakes kann das menschliche Auge nicht von Originalen unterscheiden. Forscher aus Bochum überprüfen die Authentizität mit detaillierten Bildanalysen.

Deep Fake Schriftzug mit Cybergesicht

Wie man Deep Fakes erkennen kann, zeigen Ingenieure der Ruhr-Universität Bochum.

Foto: panthermedia.net/dkcreative

Der US-Wahlkampf läuft auf Hochtouren. Traditionell spielen Social Media eine große Rolle. Die Kontrahenten scheuen sich nicht, den Gegner zu diffamieren. Zu den möglichen Waffen gehören auch Deep Fakes, also professionell gefälschte Bilder. Das Gesicht einer Person wird in einem anderen Kontext verwendet, wobei sich solche Manipulationen mit bloßem Auge nicht erkennen lassen.

„Gerade in Zeiten von Fake News kann es ein Problem sein, wenn Nutzerinnen und Nutzer computergenerierte Motive und Originale nicht auseinanderhalten können“, sagt Thorsten Holz. Er ist Professor am Lehrstuhl für Systemsicherheit der Ruhr-Universität Bochum (RUB). Zusammen mit Kollegen des Lehrstuhls für Maschinelles Lernen und der Arbeitsgruppe für Kognitive Signalverarbeitung der RUB entwickelte Holz eine Möglichkeit, Fälschungen aufzuspüren. Das Team analysierte Bilder im Frequenzbereich und konnte Artefakte präzise nachweisen.

Top Stellenangebote

Zur Jobbörse
Stadtbetrieb Wetter (Ruhr)-Firmenlogo
Bauingenieur/in (m/w/d) Fachrichtung Tiefbau / Straßenbau Stadtbetrieb Wetter (Ruhr)
Wetter (Ruhr) Zum Job 
Stadtwerke München GmbH-Firmenlogo
Brandschutzbeauftragte*r mit Zusatzfunktionen Tram (m/w/d) Stadtwerke München GmbH
München Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Planungsingenieur (w/m/d) Streckenplanung Die Autobahn GmbH des Bundes
Uwe Wenzel WW-Personalkonzepte e.K.-Firmenlogo
Entwicklungsingenieur (m/w/d) Wärmepumpensysteme und Regelungen Uwe Wenzel WW-Personalkonzepte e.K.
Großraum Hamburg Zum Job 
Landeshauptstadt München-Firmenlogo
Verkehrsingenieur*innen für die Verkehrswende (w/m/d) Landeshauptstadt München
München Zum Job 
Framatome-Firmenlogo
Ingenieur (m/w/d) für nukleare Entsorgung Framatome
Karlstein am Main, Erlangen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur als Bauwerksprüfer (w/m/d) Die Autobahn GmbH des Bundes
Berliner Stadtreinigungsbetriebe (BSR)-Firmenlogo
Projektingenieurin / Projektingenieur (w/m/d) Verfahrenstechnik Berliner Stadtreinigungsbetriebe (BSR)
Technische Universität Graz-Firmenlogo
Universitätsprofessur für Nachhaltige Antriebssysteme und angewandte Thermodynamik (m/w/d) Technische Universität Graz
Graz (Österreich) Zum Job 
Berliner Stadtreinigungsbetriebe (BSR)-Firmenlogo
Projektingenieurin / Projektingenieur (w/m/d) Elektrotechnik Berliner Stadtreinigungsbetriebe (BSR)
Lübeck Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
(Umwelt-)Ingenieur (w/m/d) für Boden, Abfall, Altlasten und Georisiken Die Autobahn GmbH des Bundes
Nürnberg Zum Job 
Fuest Familienstiftung-Firmenlogo
Bauzeichner, Bautechniker oder Innenarchitekt (m/w/d) Fuest Familienstiftung
Timm Technology GmbH-Firmenlogo
Sales Manager / Vertriebsingenieur (m/w/d) Timm Technology GmbH
Reinbek Zum Job 
Caljan GmbH-Firmenlogo
Maschinenbauingenieur / Konstrukteur Sondermaschinenbau (m/w/d) Caljan GmbH
Halle (Westfalen) Zum Job 
Stadtwerke München GmbH-Firmenlogo
(Senior) Projektmanager*in Niederspannung (m/w/d) Stadtwerke München GmbH
München Zum Job 
DFS Deutsche Flugsicherung GmbH-Firmenlogo
Ingenieur* Produktmanagement für Navigationsdienste DFS Deutsche Flugsicherung GmbH
Langen (Hessen) Zum Job 
VAHLE-Firmenlogo
Ingenieur Automatisierungs- und Steuerungstechnik (m/w/d) VAHLE
Kamen, Großraum Dortmund Zum Job 
Grünecker Patent- und Rechtsanwälte PartG mbB-Firmenlogo
Patentingenieur (m/w/d) der Fachrichtung Physik und/oder Elektrotechnik mit der Möglichkeit zur Ausbildung zum "European Patent Attorney (m/w/d/)" Grünecker Patent- und Rechtsanwälte PartG mbB
München Zum Job 
DFS Deutsche Flugsicherung GmbH-Firmenlogo
Flugsicherungsingenieur (w/m/d) DFS Deutsche Flugsicherung GmbH
Grünecker Patent- und Rechtsanwälte PartG mbB-Firmenlogo
Europäischer Patentanwalt (m/w/d) der Fachrichtung Physik, Informatik, Elektrotechnik oder Nachrichtentechnik Grünecker Patent- und Rechtsanwälte PartG mbB
München Zum Job 

Details dazu hat das Team am 15. Juli 2020 auf der International Conference on Machine Learning (ICML), vorgestellt. Sie stellen auch den Code online frei zur Verfügung, damit weitere Forschergruppen hier anknüpfen können.

Was sind Deep Fakes?

Zum Hintergrund: Der Begriff „Deep Fake“ setzt sich aus den Begriffen „Deep Learning“ und „Fake“ zusammen. Inhalte authentischer Fotos oder Videos werden in andere digitale Medien eingefügt, sprich in völlig sachfremdem Kontext verwendet. Fälschungen dieser Art sind nicht neu, basierten anfangs aber auf klassischer Software zur Bearbeitung von Bildern und waren dementsprechend leicht zu erkennen.

Bei Deep Fakes hingegen nutzt man leistungsstarke Techniken des maschinellen Lernens und der künstlichen Intelligenz, um visuelle und akustische Inhalte mit einem hohen Täuschungspotenzial zu manipulieren oder komplett neu zu erschaffen. Dazu zählen Computermodelle, sogenannten Generative Adversarial Networks, kurz GANs. Sie arbeiten mit zwei verschiedenen Algorithmen. Der erste Algorithmus analysiert Bilder, die ein User in Deep Fakes umwandeln möchte. Anhand der Ergebnisse werden neue, zufällige Bilder erschaffen. Diese testet dann ein weiterer Algorithmus auf deren Glaubwürdigkeit. Findet er Hinweise auf Fakes, kommt wieder Algorithmus eins ins Spiel – und zwar so lange, bis Programm zwei keine Fälschung mehr erkennt. Anders als bei der klassischen Bildbearbeitung erhält man Ergebnisse, die ohne Hilfsmittel wie echt wirken. Die Ergebnisse sind aufgrund leistungsfähiger Rechner auch immer authentischer geworden.

Analysen zeigen, dass Deep Fakes oft verwendet werden, um das Gesicht einer Person mit einem generierten Gesicht einer anderen Person zu tauschen, sprich in falschem Kontext darzustellen. Deepfakes gehen weit über dieses „face-swapping“ hinaus. Beispielsweise werden Körperbewegungen oder Stimmen übertragen. Danach veröffentlichen User solche Inhalte oft in Social Media.

Woran erkennen Forscher Deep Fakes?

Die Bochumer Forscher suchten nach einem Weg, um Fälschungen zu entlarven. Als Quelle für Deep Fakes verwendeten sie die Website Whichfaceisrael. Dort können User sich selbst auf die Probe stellen, ob sie original und Fälschung auseinanderhalten.

Technisch gelang dies bisher nur mit aufwendigen statistischen Verfahren, was Zeit und Rechnerleistung kostet. Die interdisziplinäre Arbeitsgruppe wählte einen anderen Ansatz, indem sie die Bilder mit der Diskreten Kosinustransformation in den Frequenzbereich umwandelte. Dabei wird das generierte Bild als Summe vieler verschiedener Kosinus-Funktionen dargestellt. Authentische Bilder oder Einzelbilder aus Videos bestehen größtenteils aus niederfrequenten Funktionen.

Wendeten Forscher ihre Diskrete Kosinustransformation jedoch auf Deep Fakes an, zeigten sich Unterschiede. Vor allem fand man Artefakte im hochfrequenten Bereich. Wie die Ergebnisse aussehen, zeigt sich am Vergleich eines Originalfotos (links) und eines Bildes, das über Deep-Fake-Algorithmen erstellt wurde (rechts). Die linke obere Ecke steht nach der Analyse für niederfrequente, sprich authentische Bildbereiche. Sie ist in beiden Aufnahmen zu sehen. Das computergenerierten Fotos (rechts) enthält zusätzlich eine Gitterstruktur im hochfrequenten Bereich. Dieses Artefakt entlarvt die Aufnahme als Deep Fake.

Originalbild (links) und Deep Fake (rechts) nach der Analyse.<br srcset=Foto: RUB, Lehrstuhl für Systemsicherheit" width="768" height="376" />

Originalbild (links) und Deep Fake (rechts) nach der Analyse.

Foto: RUB, Lehrstuhl für Systemsicherheit

Gelten die Ergebnisse für alle Deep Fakes? 

Anschließend ging das Team der Frage nach, inwieweit sich Ergebnisse auf andere Algorithmen, welche ebenfalls Deep Fakes erzeugen, übertragen lassen. Es gibt nicht nur Generative Adversarial Networks, um Fälschungen zu erzeugen.

„Unsere Experimente haben ergeben, dass diese Artefakte nicht nur bei GANs auftreten, sondern dass es sich um ein strukturelles Problem aller Deep-Learning-Algorithmen handelt“, erklärt Joel Frank von der RUB.

„Wir gehen davon aus, dass man anhand der in unserer Studie beschriebenen Artefakte immer erkennt, ob es sich um ein Deep-Fake-Bild handelt, das mit maschinellem Lernen erstellt wurde.“ Die Frequenzanalyse sei „ein effektiver Weg, computergenerierte Bilder automatisiert zu erkennen“.

Mehr zum Thema IT und Sicherheit:

Ein Beitrag von:

  • Michael van den Heuvel

    Michael van den Heuvel hat Chemie studiert. Unter anderem arbeitet er für Medscape, DocCheck, für die Universität München und für pharmazeutische Fachmagazine. Seit 2017 ist er selbstständiger Journalist und Gesellschafter von Content Qualitäten. Seine Themen: Chemie/physikalische Chemie, Energie, Umwelt, KI, Medizin/Medizintechnik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.