Gegen Fälschungen auf Facebook und Co. 20.07.2020, 06:22 Uhr

Social Media: Mit Frequenzanalysen Deep Fakes auf der Spur

Immer häufiger tauchen gefälschte Bilder in Online-Medien auf. Diese sogenannten Deep Fakes kann das menschliche Auge nicht von Originalen unterscheiden. Forscher aus Bochum überprüfen die Authentizität mit detaillierten Bildanalysen.

Deep Fake Schriftzug mit Cybergesicht

Wie man Deep Fakes erkennen kann, zeigen Ingenieure der Ruhr-Universität Bochum.

Foto: panthermedia.net/dkcreative

Der US-Wahlkampf läuft auf Hochtouren. Traditionell spielen Social Media eine große Rolle. Die Kontrahenten scheuen sich nicht, den Gegner zu diffamieren. Zu den möglichen Waffen gehören auch Deep Fakes, also professionell gefälschte Bilder. Das Gesicht einer Person wird in einem anderen Kontext verwendet, wobei sich solche Manipulationen mit bloßem Auge nicht erkennen lassen.

„Gerade in Zeiten von Fake News kann es ein Problem sein, wenn Nutzerinnen und Nutzer computergenerierte Motive und Originale nicht auseinanderhalten können“, sagt Thorsten Holz. Er ist Professor am Lehrstuhl für Systemsicherheit der Ruhr-Universität Bochum (RUB). Zusammen mit Kollegen des Lehrstuhls für Maschinelles Lernen und der Arbeitsgruppe für Kognitive Signalverarbeitung der RUB entwickelte Holz eine Möglichkeit, Fälschungen aufzuspüren. Das Team analysierte Bilder im Frequenzbereich und konnte Artefakte präzise nachweisen.

Details dazu hat das Team am 15. Juli 2020 auf der International Conference on Machine Learning (ICML), vorgestellt. Sie stellen auch den Code online frei zur Verfügung, damit weitere Forschergruppen hier anknüpfen können.

Was sind Deep Fakes?

Zum Hintergrund: Der Begriff „Deep Fake“ setzt sich aus den Begriffen „Deep Learning“ und „Fake“ zusammen. Inhalte authentischer Fotos oder Videos werden in andere digitale Medien eingefügt, sprich in völlig sachfremdem Kontext verwendet. Fälschungen dieser Art sind nicht neu, basierten anfangs aber auf klassischer Software zur Bearbeitung von Bildern und waren dementsprechend leicht zu erkennen.

Bei Deep Fakes hingegen nutzt man leistungsstarke Techniken des maschinellen Lernens und der künstlichen Intelligenz, um visuelle und akustische Inhalte mit einem hohen Täuschungspotenzial zu manipulieren oder komplett neu zu erschaffen. Dazu zählen Computermodelle, sogenannten Generative Adversarial Networks, kurz GANs. Sie arbeiten mit zwei verschiedenen Algorithmen. Der erste Algorithmus analysiert Bilder, die ein User in Deep Fakes umwandeln möchte. Anhand der Ergebnisse werden neue, zufällige Bilder erschaffen. Diese testet dann ein weiterer Algorithmus auf deren Glaubwürdigkeit. Findet er Hinweise auf Fakes, kommt wieder Algorithmus eins ins Spiel – und zwar so lange, bis Programm zwei keine Fälschung mehr erkennt. Anders als bei der klassischen Bildbearbeitung erhält man Ergebnisse, die ohne Hilfsmittel wie echt wirken. Die Ergebnisse sind aufgrund leistungsfähiger Rechner auch immer authentischer geworden.

Analysen zeigen, dass Deep Fakes oft verwendet werden, um das Gesicht einer Person mit einem generierten Gesicht einer anderen Person zu tauschen, sprich in falschem Kontext darzustellen. Deepfakes gehen weit über dieses „face-swapping“ hinaus. Beispielsweise werden Körperbewegungen oder Stimmen übertragen. Danach veröffentlichen User solche Inhalte oft in Social Media.

Woran erkennen Forscher Deep Fakes?

Die Bochumer Forscher suchten nach einem Weg, um Fälschungen zu entlarven. Als Quelle für Deep Fakes verwendeten sie die Website Whichfaceisrael. Dort können User sich selbst auf die Probe stellen, ob sie original und Fälschung auseinanderhalten.

Technisch gelang dies bisher nur mit aufwendigen statistischen Verfahren, was Zeit und Rechnerleistung kostet. Die interdisziplinäre Arbeitsgruppe wählte einen anderen Ansatz, indem sie die Bilder mit der Diskreten Kosinustransformation in den Frequenzbereich umwandelte. Dabei wird das generierte Bild als Summe vieler verschiedener Kosinus-Funktionen dargestellt. Authentische Bilder oder Einzelbilder aus Videos bestehen größtenteils aus niederfrequenten Funktionen.

Wendeten Forscher ihre Diskrete Kosinustransformation jedoch auf Deep Fakes an, zeigten sich Unterschiede. Vor allem fand man Artefakte im hochfrequenten Bereich. Wie die Ergebnisse aussehen, zeigt sich am Vergleich eines Originalfotos (links) und eines Bildes, das über Deep-Fake-Algorithmen erstellt wurde (rechts). Die linke obere Ecke steht nach der Analyse für niederfrequente, sprich authentische Bildbereiche. Sie ist in beiden Aufnahmen zu sehen. Das computergenerierten Fotos (rechts) enthält zusätzlich eine Gitterstruktur im hochfrequenten Bereich. Dieses Artefakt entlarvt die Aufnahme als Deep Fake.

Originalbild (links) und Deep Fake (rechts) nach der Analyse.<br />Foto: RUB, Lehrstuhl für Systemsicherheit

Originalbild (links) und Deep Fake (rechts) nach der Analyse.

Foto: RUB, Lehrstuhl für Systemsicherheit

Gelten die Ergebnisse für alle Deep Fakes? 

Anschließend ging das Team der Frage nach, inwieweit sich Ergebnisse auf andere Algorithmen, welche ebenfalls Deep Fakes erzeugen, übertragen lassen. Es gibt nicht nur Generative Adversarial Networks, um Fälschungen zu erzeugen.

„Unsere Experimente haben ergeben, dass diese Artefakte nicht nur bei GANs auftreten, sondern dass es sich um ein strukturelles Problem aller Deep-Learning-Algorithmen handelt“, erklärt Joel Frank von der RUB.

„Wir gehen davon aus, dass man anhand der in unserer Studie beschriebenen Artefakte immer erkennt, ob es sich um ein Deep-Fake-Bild handelt, das mit maschinellem Lernen erstellt wurde.“ Die Frequenzanalyse sei „ein effektiver Weg, computergenerierte Bilder automatisiert zu erkennen“.

Mehr zum Thema IT und Sicherheit:

Stellenangebote im Bereich Softwareentwicklung

Modis GmbH-Firmenlogo
Modis GmbH IT Consultant (m/w/d) Software Lifecycle Management München
PohlCon Vertriebs GmbH-Firmenlogo
PohlCon Vertriebs GmbH BIM Ingenieur (m/w/d) Berlin
Schaeffler Technologies AG & Co. KG-Firmenlogo
Schaeffler Technologies AG & Co. KG Leiter Softwarearchitektur Fahrwerksysteme (m/w/d) Herzogenaurach
Schaeffler Technologies AG & Co. KG-Firmenlogo
Schaeffler Technologies AG & Co. KG Softwarearchitekt für Lenkungssysteme (m/w/d) Herzogenaurach
Schaeffler Technologies AG & Co. KG-Firmenlogo
Schaeffler Technologies AG & Co. KG Ingenieur Software-Build-Engineering Steer-by-Wire (m/w/d) Herzogenaurach
Wasserstraßen- und Schifffahrtsverwaltung des Bundes-Firmenlogo
Wasserstraßen- und Schifffahrtsverwaltung des Bundes Ingenieure/-innen (m/w/d) der Fachrichtungen Elektro-/Informations-/Netzwerk-/ Nachrichten-/Steuerungstechnik Bonn, Koblenz
Hays Professional Solutions GmbH-Firmenlogo
Hays Professional Solutions GmbH Softwareentwickler (m/w/d) Niedersachsen
ROSA Experts AG & Co. KG-Firmenlogo
ROSA Experts AG & Co. KG Embedded Softwareentwickler (m/w/d) Mainhausen
W. Gessmann GmbH-Firmenlogo
W. Gessmann GmbH Softwareentwickler (m/w/d) Linux / C / C++ Leingarten bei Heilbronn
wenglor MEL GmbH-Firmenlogo
wenglor MEL GmbH Testingenieur (m/w/d) Firmware und Hardware 2D- / 3D-Sensoren Eching

Alle Softwareentwicklung Jobs

Top 5 IT & T…

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.