Gefährliche Künstliche Intelligenz 29.01.2024, 12:12 Uhr

Deepfake Nacktbilder von Taylor Swift auf X sorgen für Empörung

Die einen spielen plötzlich in einem Porno mit, andere in einem Werbeclip: Deepfake macht es möglich. Das ist aktuell der Sängerin Taylor Swift passiert. Ein Deepfake-Nackfoto von ihr wurde auf X rund 45 Million Mal angezeigt, ehe es gelöscht wurde.

Deepfakes

Dank immer besserer Künstlichen Intelligenz werden gefälschte Video- und Audiodateien immer ausgefeilter. Wie gefährlich ist solch ein Deepfake?

Foto: Panthermedia.net/Momius

Künstliche Intelligenz erzeugte Nacktbilder von Taylor Swift, verbreitet auf der Plattform X, sorgten bei Fans und in der US-Politik für Aufregung. Obwohl X – ehemals bekannt als Twitter – pornografische Deepfakes untersagt, erreichte ein solches Posting dort 45 Millionen Aufrufe, bevor es nach 17 Stunden entfernt wurde. Allerdings wurde damit nur ein Teil des Problems gelöst, denn wer auf X nach „Taylor Swift“ suchte, bekam weiterhin Nacktfotos angezeigt. Das Portal sperrte daraufhin Anfragen nach der US-amerikanischen Sängerin. Mittlerweile beschäftigt sich auch das Weiße Haus mit der Causa Swift.

Kommen strengere Regeln?

Die Causa Swift wurde am Freitag, den 26. Januar, auch vom Weißen Haus thematisiert. „Das ist äußerst besorgniserregend. Wir werden unser Möglichstes tun, um dieses Problem anzugehen“, erklärte Sprecherin Karine Jean-Pierre. Sie betonte zudem, dass der Kongress in dieser Angelegenheit gesetzgeberisch aktiv werden sollte. Sie forderte Social-Media-Unternehmen auf, ihre Regeln strenger durchzusetzen, um die Verbreitung von Falschinformationen und die unerlaubte Veröffentlichung intimer Bilder realer Personen zu unterbinden.

Top Stellenangebote

Zur Jobbörse
Vita Zahnfabrik H. Rauter GmbH & Co. KG-Firmenlogo
Konstrukteurin / Konstrukteur Maschinen und Anlagen Vita Zahnfabrik H. Rauter GmbH & Co. KG
Bad Säckingen Zum Job 
Deutsche Rentenversicherung Bund-Firmenlogo
Teamleiter*in Bauprojekte Elektrotechnik (m/w/div) Deutsche Rentenversicherung Bund
ABO Wind AG-Firmenlogo
Projektleiter (m/w/d) Umspannwerke 110kV für erneuerbare Energien ABO Wind AG
verschiedene Standorte Zum Job 
Stadtwerke Frankenthal GmbH-Firmenlogo
Energieberater (m/w/d) Stadtwerke Frankenthal GmbH
Frankenthal Zum Job 
Griesemann Gruppe-Firmenlogo
Lead Ingenieur Elektrotechnik / MSR (m/w/d) Griesemann Gruppe
Köln, Wesseling Zum Job 
Berliner Wasserbetriebe-Firmenlogo
Bauingenieur:in Maßnahmenentwicklung Netze (w/m/d) Berliner Wasserbetriebe
PARI Pharma GmbH-Firmenlogo
Senior Projekt-/Entwicklungsingenieur (m/w/d) in der Konstruktion von Medizingeräten PARI Pharma GmbH
Gräfelfing Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Abteilungsleitung (m/w/d) Umweltmanagement und Landschaftspflege Die Autobahn GmbH des Bundes
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) Verkehrsbeeinflussungsanlagen Die Autobahn GmbH des Bundes
Hamburg Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Projektingenieur (w/m/d) Telematik-Infrastruktur Die Autobahn GmbH des Bundes
Frankfurt am Main Zum Job 
Stadt Nordenham-Firmenlogo
Ingenieur (m/w/d) der Richtung Bauingenieurwesen (Tiefbau, Siedlungswasserwirtschaft, Wasserwirtschaft, Wasserbau) oder Umweltingenieurwesen oder staatlich geprüften Techniker (m/w/d) der Siedlungswasserwirtschaft Stadt Nordenham
Nordenham Zum Job 
VIVAVIS AG-Firmenlogo
Projektleiter (m/w/d) Angebotsmanagement VIVAVIS AG
Ettlingen, Berlin, Bochum, Koblenz Zum Job 
envia TEL GmbH-Firmenlogo
Serviceingenieur (Field Service Engineer) (m/w/d) envia TEL GmbH
Chemnitz, Halle, Kolkwitz, Markkleeberg, Taucha Zum Job 
ILF Beratende Ingenieure GmbH-Firmenlogo
Projektingenieur (m/w/d) Verkehrsanlagen Schwerpunkt Trassierung ILF Beratende Ingenieure GmbH
München, Essen Zum Job 
ILF Beratende Ingenieure GmbH-Firmenlogo
Projektingenieur (m/w/d) Konstruktiver Ingenieurbau / Objekt- und Tragwerksplanung ILF Beratende Ingenieure GmbH
München Zum Job 
envia TEL GmbH-Firmenlogo
Ingenieur Datacenter Infrastruktur (m/w/d) envia TEL GmbH
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) Tunneltechnik Die Autobahn GmbH des Bundes
Frankfurt am Main Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Abteilungsleiter/in - Planung auf BAB Betriebsstrecken (w/m/d) Die Autobahn GmbH des Bundes
Oldenburg Zum Job 
Stadtwerke München GmbH-Firmenlogo
Bauingenieur*in / Fachkraft für Arbeitssicherheit (m/w/d) Stadtwerke München GmbH
München Zum Job 
Die Autobahn GmbH des Bundes, Niederlassung Südbayern-Firmenlogo
Projektingenieur im Brückenbau für Neubau-, Ausbau- und Erhaltungsmaßnahmen (w/m/d) Die Autobahn GmbH des Bundes, Niederlassung Südbayern
Kempten Zum Job 

Analysten bewerten X als eine der weltweit führenden Mainstream-Plattformen für pornografische Inhalte. Dies liegt an den im Vergleich zu Diensten wie Facebook oder Instagram, beide betrieben von Meta, lockereren Nacktheitsrichtlinien. Seit der Übernahme durch Milliardär Elon Musk im Jahr 2022 steht Twitter vermehrt in der Kritik. Musk wird sowohl für persönlich kontroverse Beiträge als auch für die mangelnde Bekämpfung von Falschinformationen und menschenverachtenden Inhalten auf seiner Plattform verantwortlich gemacht.

Auch Scarlett Johansson wurde Opfer einer Deepfake-Kampagne

Erst vor einigen Wochen wurde Scarlett Johansson Opfer einer Deepfake-Kampagne. Johansson äußerte sich damals resigniert, dass der Kampf gegen die Verwendung von Deepfakes in pornografischen Inhalten bereits verloren sei. Dieser Vorfall reiht sich in eine Serie von Fällen ein, in denen Prominente unwissentlich in Deepfakes verwickelt wurden. So wies Tom Hanks vor Kurzem auf Instagram seine Anhänger auf ein gefälschtes Video hin, das ihn ohne sein Wissen für Werbezwecke im Bereich der kosmetischen Zahnmedizin zeigte. Auf Nachfrage des „Hollywood Reporters“ zeigte sich Hanks zwiegespalten. Einerseits ist er von der Möglichkeit, seine Schauspielkarriere nach seinem Tod virtuell fortzusetzen, fasziniert, was die komplexe Natur dieser Technologie unterstreicht.

Chance oder Risiko? In vielen Fällen bewegt sich Deepfake eher auf der Schattenseite, denn damit lassen sich Videos, Bilder oder Stimmen erzeugen, die vom Original kaum zu unterscheiden sind. Damit lässt sich einiges anstellen, was wirklich kriminell ist. Womit wir bei der Frage wären: Wie gefährlich ist Deepfake? Wir haben uns angeschaut, was mit künstlicher Intelligenz heute schon alles möglich ist und welche Gefahren lauern. Nicht zuletzt geht es aber auch darum, ob wir uns vor einem Deepfake schützen können.

Was bedeutet Deepfake?

Der Begriff „Deepfake“ bezeichnet die Manipulation von Video- oder Audioinhalten mithilfe von künstlicher Intelligenz (KI). Hierbei werden künstliche neuronale Netzwerke und maschinelles Lernen verwendet, um beispielsweise Gesichter in Videoclips durch die Gesichter anderer Personen zu ersetzen. Einige Deepfake-Verfahren ermöglichen sogar Echtzeitmanipulation.

Der Ausdruck „Deepfake“ setzt sich aus den englischen Begriffen „Deep Learning“ und „Fake“ zusammen. Er beschreibt die künstliche Generierung oder Modifikation von Video- und Audioinhalten unter Einsatz von KI-Technologien. Deepfakes nutzen dabei künstliche neuronale Netzwerke und Methoden des maschinellen Lernens, insbesondere des Deep Learning.

Verschiedene Arten von Deepfakes

Dies ermöglicht beispielsweise das Austauschen von Gesichtern in vorhandenen Videoclips, das Erzeugen von Sprachaufnahmen mit fremden Stimmen oder das Verändern von Bewegungen von Personen. Die resultierenden Inhalte erscheinen äußerst realistisch und authentisch, wodurch sie oft schwer als Fälschungen zu erkennen sind.

Laut Bundesamt für Sicherheit und Informationstechnik (BSI) gibt es verschiedene Arten von Deepfakes. Eine davon ist das „Face Swapping“, bei dem das Gesicht einer Person durch das einer anderen ersetzt wird, wobei Mimik, Gesichtsbeleuchtung und Blickrichtung beibehalten werden.

Eine andere Methode ist das „Face Reenactment“. Bei dieser Technik werden Kopfbewegungen, Mimik oder Lippenbewegungen einer Person durch die Erstellung von 3D-Modellen des Gesichts am Computer manipuliert. Das Resultat sind oft verblüffend realistische Videos. Zusätzlich können auch Stimmen mithilfe von Technologie authentisch nachgeahmt werden.

Wie lassen sich Deepfakes erstellen?

Die Erstellung eines Deepfakes ist durchaus einfach. Zunächst sammelt man Bilder oder Videos der gewünschten Person und verwendet eine spezielle, oftmals kostenlose Software. Die künstliche Intelligenz der Software extrahiert das Gesicht der Zielperson und integriert es in ein anderes Bild oder Video. Während die Software den Großteil der Arbeit übernimmt, hängt die Qualität und Authentizität des Endprodukts von der Rechenkapazität des verwendeten Computers ab.

Generell ist die Erstellung von Deepfakes nicht illegal, da es noch keine spezifischen Gesetze gibt, die dies regeln. Dennoch können bei der Verwendung von Bildmaterial ohne Zustimmung Persönlichkeits- und Urheberrechte verletzt werden. So schwirren zum Beispiel Videos von Barack Obama und Angela Merkel mit Aussagen durchs Netz, die diese niemals getätigt haben. Auch andere Promis sind schon Opfer von Deepfakes geworden.

So hat die damaligen Regierende Bürgermeisterin von Berlin, Franziska Giffey, im Jahr 2022 eine halbe Stunde vermeintlich mit Kiews Oberbürgermeister Vitali Klitschko gesprochen. Erst dann brach Giffey das Videotelefonat ab, weil ihr etwas an dem ehemaligen Boxweltmeister seltsam vorkam. Und in der Tat wurde sie Opfer eines Deepfakes. Wiens Bürgermeister Michael Ludwig war weniger misstrauisch, er soll über eine Stunde mit dem Fake-Klitschko gesprochen haben.

Welche Gefahren drohen durch Deepfakes?

Sie haben in diesem Beitrag einiges über die verschiedenen Möglichkeiten eines Deepfakes gelernt und können sicherlich erahnen, welche Gefahren durch gefälschte Stimmen, Videos oder Bildern drohen. Das Bundesamt für Sicherheit in der Informationstechnik formuliert folgende Bedrohungsszenarien:

  • Gefahren durch Deepfakes in biometrischen Systemen: Deepfakes ermöglichen die Erstellung von medialen Inhalten, die die Eigenschaften einer Zielperson imitieren. Diese Technologie kann insbesondere bei Fernidentifikationsverfahren, wie der Sprachererkennung über das Telefon oder Videoidentifikation, problematisch werden. Hier erhält ein Verteidigungssystem nur das Endsignal, hat aber keine Kontrolle über die Aufnahmetechnik oder eventuelle Manipulationen des Materials.
  • Einsatz im Social Engineering: Deepfakes können für gezielte Phishing-Angriffe, bekannt als „Spear-Phishing“, eingesetzt werden, um vertrauliche Informationen abzugreifen. Ein Angreifer könnte beispielsweise mithilfe von Deepfakes einen Anruf tätigen, der die Stimme einer Führungskraft imitiert, um so eine Geldtransaktion auszulösen – eine Methode, die als „CEO-Fraud“ bekannt ist.
  • Desinformationskampagnen: Mit Deepfakes können überzeugende Falschinformationen erstellt werden. Indem manipulierte Medieninhalte von wichtigen Persönlichkeiten generiert und verbreitet werden, könnten breit angelegte Desinformationskampagnen durchgeführt werden.
  • Risiko der Verleumdung: Die Fähigkeit, Personen Dinge sagen oder tun zu lassen, die sie nie gesagt oder getan haben, birgt das Risiko schwerer Rufschädigungen durch das Verbreiten von Unwahrheiten.

Opfer eines Deepfake-Betrugs können jedoch nicht nur Unternehmen oder prominente Persönlichkeiten werden. Auch Schülerinnen und Schüler, Großeltern, eigentlich jeder kann auf einen gefälschten Gegenüber reinfallen.

Deutsche Sicherheitsbehörden in großer Sorge

Innerhalb der deutschen Sicherheitsbehörden wächst die Besorgnis über das Potenzial von Deepfakes, insbesondere angesichts ihrer immer überzeugenderen Qualität. Es gibt Befürchtungen, dass Geheimdienste und andere staatliche Akteure sie für gezielte Desinformation, Manipulation und den Erwerb von vertraulichen Informationen nutzen könnten.

Laut einer aktuellen Publikation des Bundesamts für Verfassungsschutz (BfV), die besonders vor Wirtschaftsspionage warnt, ist es „sehr wahrscheinlich, dass technisch versierte Nachrichtendienste und staatliche Institutionen Deepfakes als innovative Angriffsmethoden einsetzen werden“. Mit den Fortschritten in der künstlichen Intelligenz wird es einfacher, Personen in Audio- und Videoaufnahmen fast fehlerfrei zu imitieren.

Die Bedrohung beschränkt sich nicht nur auf manipulierte Videos im Internet. Es besteht auch die Gefahr von Live-Manipulationen während Videokonferenzen. Solche Deepfakes könnten fremden Geheimdiensten, Hackern oder Wirtschaftsspionen völlig neue Manipulations- und Datenerfassungsmöglichkeiten bieten. Ein entscheidender Vorteil dieser Methode gegenüber traditioneller Spionage ist, dass kein neues Vertrauensverhältnis zum Ziel aufgebaut werden muss, da die imitierte Person vermutlich bereits als vertrauenswürdig angesehen wird –  zum Beispiel bei Vitali Klitschko.

Wie lassen sich Deepfakes erkennen?

Auch wenn Deepfakes mit immer besseren KI-Tools oft nur noch schwer zu erkennen sind, gibt es einige Anzeichen, die darauf hindeuten könnten. Dr. Nicolas Müller vom Fraunhofer-Institut AISEC (Angewandte und Integrierte Sicherheit) forscht seit Jahren zum Thema künstlicher Intelligenz und Deepfakes. Gegenüber dem Südkurier nannte er folgende Merkmale, die auf ein gefälschtes Audio oder Video hindeuten könnten:

  • Unnatürliche Gesichtsbewegungen: Wenn die Bewegungen im Gesicht einer Person nicht typisch oder auffällig ungewöhnlich erscheinen, lohnt es sich, genauer hinzusehen.
  • Diskrepanzen zwischen Audio und Video: Ein Indikator kann sein, wenn die Lippenbewegungen der Person nicht mit der Tonspur synchronisiert sind.
  • Bild- und Tonauffälligkeiten: Hinweise auf Manipulationen können Pixelfehler, untypische Übergänge sowie ungewöhnliche Kanten und Schatten im Bild sein. Im Audiotrack können Störgeräusche wie Knacken, Rauschen oder ungewöhnliche hohe Töne auf Deepfakes hindeuten.
  • Unnatürlicher Sprachfluss: Bei Audio-Deepfakes, die mit großen und möglicherweise fehlerhaften Datenmengen trainiert wurden, kann es zu einer roboterhaften oder untypischen Sprechweise kommen, besonders wenn die Trainingsdaten Fehler enthalten oder nicht korrekt annotiert wurden.

Gibt es Tools oder Technologien, um Deepfakes automatisch zu erkennen?

In manchen Fällen ist der Einsatz von Technologie unerlässlich. Es existieren spezielle Anwendungen, die darauf ausgelegt sind, Fälschungen aufzudecken. Diese analysieren beispielsweise Farbwerte oder Metadaten eines Fotos, welche Informationen über Ort und Zeitpunkt der Aufnahme liefern. Unternehmen wie Sentinel, Intel und Microsoft bieten solche Deepfake-Erkennungsprogramme an.

Diese Tools setzen auf hoch entwickelte KI-Algorithmen, um Deepfakes präzise zu identifizieren. Jedes dieser Programme hat einen eigenen Ansatz, angefangen von der Untersuchung feinster Graustufenabweichungen in einem Video bis zur genauen Beobachtung von Gesichtsausdrücken und Bewegungen.

Zum Beispiel verwendet Sentinel KI-Technologien, um digitale Medien auf Manipulationen zu überprüfen und diese visuell darzustellen. Microsofts Video Authenticator hingegen gibt in Echtzeit einen Vertrauenswert aus, der Aufschluss darüber gibt, ob ein Bild oder Video bearbeitet wurde.

Diese Werkzeuge sind an vorderster Front im Bestreben, Deepfakes zu bekämpfen und die Glaubwürdigkeit digitaler Inhalte sicherzustellen. Da sich Deepfake-Technologien ständig weiterentwickeln, müssen auch die Erkennungsmethoden stetig angepasst werden. Denn eines sollte klar sein – die Ära der Deepfakes hat gerade erst begonnen.

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.