UX/UI & Webdesign

Wie können Kreative ihre Werke vor KI schützen? › PAGE online


Es gibt zwar Tools wie Glaze oder Nightshade, die Gestaltung vor KI und deren Trainings schützen sollen, aber die sind nicht 100%ig sicher. Das zeigt ein Projekt am System Security Lab der TU Darmstadt. PAGE hat nachgefragt, was es damit auf sich hat.

Wie können Kreative ihre Werke vor KI schützen? › PAGE online
Foto: Phillip Rieger, Research Assistant, System Security Lab, Technical University of Darmstadt

Die technologischen Entwicklungen stellen Kreative in vielerlei Hinsicht vor große Herausforderungen. Eine davon: die Nutzung von kreativen Arbeiten für KI-Trainings.

Davor kann man sich eigentlich schützen, das dachten viele zumindest bisher. Aber ganz so einfach scheint es doch nicht zu sein. Das Projekt »LightShed« der TU Darmstadt zeigt, wie konkrete Schutzmechanismen ausgehebelt werden können.

Phillip Rieger, Research Assistant am System Security Lab der TU Darmstadt, hat erklärt, wie das funktioniert. Er betont, dass diese Erkenntnis aber kein Grund zur Panik sein sollte, sondern dafür spricht, sich in den Communitys darüber auszutauschen und up to date zu halten.

PAGE: Aktuell arbeitet das System Security Lab der TU Darmstadt an einem Projekt, das zeigt, inwiefern die derzeit bekanntesten Schutzmechanismen wie die Tools Glaze oder Nightshade gegen KI-generierte Kunst und Design ausgehebelt werden können. Das Projekt heißt LightShed. Können Sie es kurz beschreiben?

Phillip Rieger: Fortschritte in der Künstlichen Intelligenz (KI) stellen Kunstschaffende vor große Herausforderungen. Während früher der persönliche Stil das Alleinstellungsmerkmal und persönliches Markenzeichen waren, sind moderne KI-basierte Bildgeneratoren in der Lage, individuelle Stile täuschend echt nachzuahmen, wenn sie mit passenden Beispielbildern trainiert wurden. Das macht es für Künstler:innen riskant, Beispiele ihrer Arbeit im Internet zu veröffentlichen, beispielsweise um ihre Arbeit bekannt zu machen. Tools wie Nightshade oder Glaze versprechen hier Abhilfe, indem sie eine sogenannte »Poisoned Perturbation«, eine Art unsichtbares Störmuster, in das Bild einfügen, das verhindern soll, dass die KI die Konzepte, also den Stil oder die Inhalte, des Bildes lernen kann. In unserem »LightShed«-Projekt zeigen wir jedoch, dass diese Tools ein falsches Gefühl der Sicherheit vermitteln. Diese Änderungen lassen sich rückgängig machen und somit können diese Bilder dann wieder genutzt werden, um eine KI zu trainieren.

Weitere Artikel zum Thema KI-Recht und Data-Scraping

Wie funktioniert das technisch, also für Laien kurz umrissen?

Unser LightShed Ansatz nutzt zwei Prinzipien aus. Erstens sind diese Schutztools öffentlich verfügbar. Das bedeutet, dass auch potenzielle Angreifer, die den persönlichen Stil kopieren wollen, diese herunterladen und damit experimentieren können, beispielsweise um die genaue Funktionsweise zu ermitteln. Zweitens muss das ursprüngliche Bild immer noch unter der Schutz-Perturbation erkennbar sein, daher dürfen diese Tools die Bilder nicht zu sehr verändern. LightShed nutzt diese beiden Prinzipien aus.

Wir trainieren eine eigene KI, genauer gesagt ein sogenanntes »Autoencoder-Modell«, das darauf spezialisiert ist, diese Störmuster zu erkennen und aus den Bildern zu extrahieren. Vereinfacht ausgedrückt, komprimiert das Modell die Bilder stark, was es erlaubt, kleinere Abweichungen im Bild (das Schutzmuster) zu erkennen. Das Modell lernt, was am Bild unnatürlich ist und daher vermutlich Teil des Störmusters ist. Das extrahierte Störmuster lässt sich dann vom ursprünglichen Bild abziehen und das Bild kann dann zum Training einer KI verwendet werden.

Angesichts der rasanten Entwicklungen von KI ist das äußerst spannend. Vor allem, weil Designer:innen und Künstler:innen berechtigterweise fürchten, dass ihre Arbeiten und Werke für Trainingsdaten immer häufiger genutzt werden. Wie schätzen Sie das zukünftig ein, wird das noch extremer? Wenn ja, wie kann man sich besser vor Urheberrechtsmissbrauch schützen?

Viele aktuelle Anbieter von KI respektieren diese Kennzeichnung und verwenden solche Werke dann nicht zum Training. Auch wenn es natürlich Gegenbeispiele gibt. Ein entscheidender Punkt ist jedoch, dass wir immer noch in einer frühen Phase sind. Die Verbreitung nimmt stetig zu und entsprechend wachsen auch die Risiken. Aktuelle KI-Tools stammen meist von etablierten Unternehmen, die im Zweifelsfall für Urheberrechtsverletzungen haftbar gemacht werden können. Dies kann sich jedoch ändern. Zukünftig kann es sein, seine private KI bei sich zu Hause zu trainieren (oder eine bereits trainierte KI leicht zu modifizieren), z. B. durch immer stärker werdende Rechner und effizientere KI-Architekturen. Einzelpersonen könnten ihre eigenen KIs trainieren, um bestimmte Werke zu imitieren und dabei solche Kennzeichnungen ignorieren (quasi Raub-Generierer). Diese Modelle könnten dann über das Internet verbreitet werden, analog zu Tauschbörsen und Streaming-Plattformen in der Vergangenheit.

Entsprechend ist es unabdingbar, geeignete technische Schutzmaßnahmen zu entwickeln und einzusetzen, um solche Szenarien zu vermeiden. Künftige Forschung muss sichere Tools entwickeln, um zuverlässig die unerlaubte Nutzung von Werken zu verhindern. Bis dahin gilt, wie häufig in der IT-Sicherheit, dass der Schutz in der Regel nicht perfekt sein muss, solange er sicherer ist als der von vergleichbaren Werken.

Welche Disziplinen sind Ihrer Meinung nach am meisten betroffen: Design und Kunst in Richtung Text, Audio, Bild, Video? Oder kann man das so nicht festmachen?

Grundsätzlich sind alle kreativen Bereiche betroffen, wenn auch mit unterschiedlicher Ausgangslage und anderen Motivationen. Aktuell stehen vor allem Bilder im Fokus, da sich diese zurzeit technisch relativ einfach generieren lassen und leicht im Internet teilen lassen. Auch Texte lassen sich jetzt schon leicht erstellen, auch wenn sie nicht so leicht zu teilen sind. Im Vergleich dazu ist die Generierung von Videos und Audios aktuell noch komplexer und rechenintensiver. Dies kann sich jedoch in Zukunft ändern. Schon jetzt sehen wir, dass KI-generierte Stimmen und Videos enormes Missbrauchspotential mit sich bringen, beispielsweise zur Desinformation.

Je nach Anwendungsfall sind unterschiedliche Schutzmaßnahmen notwendig. Bei DeepFakes ist es ausreichend, diese einfach und verlässlich zu erkennen. Bei generativer Kunst, die bewusst den Stil kopiert, könnte eine Erkennbarkeit jedoch in Kauf genommen werden, vergleichbar mit Produktfälschungen, die ungeachtet ihrer Erkennbarkeit genutzt werden. Daher müssen wir langfristig technische Lösungen entwickeln, um Werke effektiv und zuverlässig zu schützen. Diese Tools dürfen nicht auf einzelne Medien beschränkt sein, da in Zukunft alle Arten von Werken betroffen sein dürften.

Das Projekt soll ein Weckruf sein, keine Panikmache. Inwiefern wird es weitergeführt und wie können sich Betroffene der Kunst- und Designszene up to date halten?

LightShed soll vor allem sensibilisieren. Es zeigt, dass bestehende Schutzmechanismen noch nicht ausreichen, um Betroffene von missbräuchlicher KI-Nutzung zu schützen. Die Forschung arbeitet daran, die Methoden weiter zu verbessern und insbesondere zu untersuchen, wie zukünftige Schutzmaßnahmen robuster gestaltet werden können.

Für Künstler:innen ist es daher wichtig, sich regelmäßig über aktuelle Entwicklungen zu informieren, etwa über Fachartikel oder den Austausch mit der Community. Gleichzeitig braucht es aber auch politischen und gesellschaftlichen Druck, um langfristige und rechtlich verbindliche Lösungen zu etablieren. Am Ende wird es ein Zusammenspiel aus Technik, Recht und Bewusstsein sein, das kreatives Arbeiten auch im KI-Zeitalter schützt.

Danke.

Das Projekt-Team besteht aus: Hanna Foerster, University of Cambridge (Erstautorin), Sasha Behrouzi und Phillip Rieger, Technische Universität Darmstadt, Murtuza Jadliwala, University of Texas at San Antonio, Ahmad-Reza Sadeghi, Technische Universität Darmstadt.



Source link

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Beliebt

Die mobile Version verlassen