Urheberrrechte 22.01.2024, 14:00 Uhr

Nightshade: Ein Tool, das die Bilder-KI vergiften kann

Nightshade, ein Tool der University of Chicago, schützt künstlerische Werke im KI-Training, indem es Bilder durch gezielte Fehlinformationen in „vergiftete“ Daten umwandelt.

KI

Nightshade: Künstlerischer Schutz vor KI-Training - Wie ein innovatives Tool der University of Chicago Bilder mit gezielten Fehlinformationen 'vergiftet'.

Foto: PantherMedia / agsandrew

Das Training von KI-Systemen ist ein komplexer Prozess, der eine Vielzahl von Datenquellen erfordert, um eine breite und robuste künstliche Intelligenz zu entwickeln. Oftmals werden für das Training große Mengen an Daten verwendet, darunter auch künstlerische Werke wie Bilder, Musik oder Texte. Dies wirft jedoch Fragen bezüglich der Urheberrechte der Künstler auf.

Denn: Generative KI-Modelle und ihre Trainer nutzen jegliche Online-Inhalte, um ihre Modelle zu trainieren. Es existieren nur wenige Instrumente für Inhalteigentümer und -schöpfer, um zu verhindern, dass ihre Inhalte ungefragt in ein generatives KI-Modell einfließen.

Top Stellenangebote

Zur Jobbörse
Technical University of Munich (TUM)-Firmenlogo
Full Professor in "Software & System Security" in combination with the Institute Director at Fraunhofer AISEC Technical University of Munich (TUM)
München Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Berliner Wasserbetriebe-Firmenlogo
Ingenieur:in Regenwasseragentur (w/m/d) Berliner Wasserbetriebe
SPINNER GmbH-Firmenlogo
Account Manager / Sales Manager (w/m/d) SPINNER GmbH
München Zum Job 
Hochschule Kaiserslautern-Firmenlogo
W2-Professur "Produktentwicklung und Konstruktion" (m/w/d) Hochschule Kaiserslautern
Kaiserslautern Zum Job 
VIVAVIS AG-Firmenlogo
Leiter Vertrieb Süd (m/w/d) VIVAVIS AG
Ettlingen Zum Job 
SPINNER GmbH-Firmenlogo
Konstruktionsingenieur (w/m/d) SPINNER GmbH
Feldkirchen-Westerham Zum Job 
SPINNER GmbH-Firmenlogo
Entwicklungsingenieur (w/m/d) Hochfrequenz SPINNER GmbH
Feldkirchen-Westerham Zum Job 
Deutsche Rentenversicherung Bund-Firmenlogo
Spezialist*in Gebäudeschadstoffe (m/w/div) Deutsche Rentenversicherung Bund
Albert Handtmann Maschinenfabrik GmbH & Co. KG-Firmenlogo
Patentingenieur (m/w/d) Albert Handtmann Maschinenfabrik GmbH & Co. KG
Biberach an der Riß Zum Job 
Oskar Dilo Maschinenfabrik KG-Firmenlogo
Vertriebsingenieur international (m/w/d) Oskar Dilo Maschinenfabrik KG
Eberbach Zum Job 
Cargill-Firmenlogo
Mechanical Reliability Engineer (m/w/d) Cargill
Hamburg-Rothenburgsort Zum Job 
Landesbetrieb Bau und Immobilien Hessen (LBIH)-Firmenlogo
Ingenieur (m/w/d) Versorgungstechnik / Betriebstechnik Landesbetrieb Bau und Immobilien Hessen (LBIH)
Gießen Zum Job 
Cargill-Firmenlogo
Start-up Leader (m/w/d) Cargill
Berlin-Lichtenrade Zum Job 
Hochtaunuskreis - Der Kreisausschuss-Firmenlogo
Ingenieure der Fachrichtung technische Gebäudeausrüstung aller Fachrichtungen (m/w/d) Hochtaunuskreis - Der Kreisausschuss
Bad Homburg vor der Höhe Zum Job 
Focused Energy GmbH-Firmenlogo
Senior Laser Scientist (m/f/d) Focused Energy GmbH
Darmstadt Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
(Bau-)Ingenieur als Abteilungsleiter (w/m/d) Betriebsdienst Die Autobahn GmbH des Bundes
Hamburg Zum Job 
Stadtwerke Lengerich GmbH-Firmenlogo
Ingenieur für Energienetzplanung (m/w/d) Stadtwerke Lengerich GmbH
Lengerich Zum Job 
Messe München GmbH-Firmenlogo
Meister/Ingenieur/in der Elektrotechnik als Technical Manager (m/w/d) Messe München GmbH
München Zum Job 
IMS Messsysteme GmbH-Firmenlogo
Elektrotechnikingenieur/-techniker (m/w/i) für die Prüfung von Messsystemen IMS Messsysteme GmbH
Heiligenhaus Zum Job 

Jetzt gibt es eine Lösung, die Künstlern die Möglichkeit bietet, ihre Bilder durch gezielte Fehlinformationen zu ergänzen, um das Training von KI-Systemen zu beeinträchtigen.

Wissenschaftler der University of Chicago haben ein Tool namens Nightshade vorgestellt, das Künstlern ermöglicht, ihre Bilder (online) zu manipulieren, um zu verhindern, dass KI-Systeme sie ohne Erlaubnis erfassen, berichtet Golem in Bezug auf einen Bericht von The Register heißt.

Wie funktioniert Nightshade?

Die Nightshade-Software führt subtile Veränderungen an Bildern durch, die für den menschlichen Betrachter kaum wahrnehmbar sind, aber erhebliche Störungen in KI-Modellen verursachen können, die darauf trainiert werden. Ziel ist es, Künstlern zu ermöglichen, ihre Werke vor ungenehmigter Verwendung im Rahmen des Trainings zu schützen.

Mit anderen Worten: Nightshade ist ein Tool, das Bilder in für das Modelltraining ungeeignete Daten umwandelt. Es „vergiftet“ die Bilder, sodass Modelle, die ohne Erlaubnis darauf trainiert werden, unvorhersehbares Verhalten erlernen, das von den erwarteten Normen abweicht. Beispielsweise könnte eine Anfrage, wie die Forschenden mitteilen, nach einem Bild einer fliegenden Kuh im Weltraum stattdessen ein Bild einer Handtasche im Weltraum liefern.

Geistiges Eigentum schützen

Dieses Tool soll potenzielle Nutzer, seien es Unternehmen oder Einzelpersonen, davon abhalten, künstlerische Bilder für das Training von KI-Modellen zu verwenden, ohne zuvor die ausdrückliche Zustimmung der Urheber eingeholt zu haben. Diese Praxis wird zunehmend verbreitet, da KI-Modelle stark auf umfangreiche Bilddatenbanken angewiesen sind.

„Nightshade stellt ein leistungsstarkes Instrument für Inhaltsinhaber dar, um ihr geistiges Eigentum vor Modelltrainern zu schützen, die Urheberrechtsvermerke, Anweisungen zum Nicht-Scrapen/Crawlen und Opt-out-Listen ignorieren oder missachten“, so die Autoren in ihrem Artikel.

Es gibt aber auch Kritikpunkte: Matthew Guzdial, Assistenzprofessor für Informatik an der University of Alberta, hat in einem Beitrag in sozialen Medien geschrieben: „Das ist eine interessante und zeitgemäße Arbeit! Aber ich mache mir Sorgen, dass sie als die Lösung überbewertet wird. Sie funktioniert nur mit CLIP-basierten Modellen und laut den Autoren wären 8 Millionen ‚vergiftete‘ Bilder erforderlich, um einen signifikanten Einfluss auf die Generierung ähnlicher Bilder für LAION-Modelle zu haben.“

Abwehr gegen Stilkopien: Nightshade und Glaze im Einsatz

Nightshade wurde von der gleichen Forschergruppe an der University of Chicago entwickelt, die auch das Abwehrtool Glaze konzipierte. Glaze zielt darauf ab, die KI bei der Imitation künstlerischer Stile zu beeinträchtigen.

„Stilkopien führen zu einer Reihe von schädlichen Auswirkungen, die auf den ersten Blick möglicherweise nicht offensichtlich sind“, erklären die Wissenschaftler. „Für Künstler, deren Stile absichtlich kopiert werden, bedeutet dies nicht nur einen Verlust an Aufträgen und Grundgehalt, sondern auch minderwertige synthetische Kopien, die online verstreut sind, schmälern ihre Marke und Reputation. Am wichtigsten ist jedoch, dass Künstler ihre Stile mit ihrer eigentlichen Identität verbinden“.

Ein Beitrag von:

  • Alexandra Ilina

    Redakteurin beim VDI-Verlag. Nach einem Journalistik-Studium an der TU-Dortmund und Volontariat ist sie seit mehreren Jahren als Social Media Managerin, Redakteurin und Buchautorin unterwegs.  Sie schreibt über Karriere und Technik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.