KI-Systeme wie Bildgeneratoren werden unter anderem mit frei zugänglichen Daten aus dem Internet trainiert, wodurch sich viele Künstler in ihrem Urheberrecht verletzt sehen. Nun gibt es ein Tool, mit dem sie sich nicht nur abschotten, sondern sogar den KI-Modellen schaden können.
Laut heise.de wurde das Tool namens „Nightshade“ bereits im Herbst vorgestellt, nun sei es tatsächlich verfügbar: Entwickelt wurde es an der Universität von Chicago. Die Wissenschaftler hätten bereits ein ähnliches Tool namens „Glaze“ im Angebot, so die Redakteure:
„Wobei der Vorgänger darauf abzielt, dass Künstler ihre Werke schützen können. Konkret, in dem sie ihre Bilder so verfälschen, dass KI-Modelle nicht in der Lage sind, ihren Stil zu lernen oder gar wiederzugeben. Dafür werden Pixel verändert – für das menschliche Auge unsichtbar, für die Maschine entsteht jedoch etwas Anderes.“
Nightshade solle das ganze etwas weitertreiben, so heise.de weiter: „Nutzt man dieses Tool, und kommen die Crawler trotz Verbot an den eigenen Werken vorbei, werden die Trainingsdaten vergiftet. Zeigt das Bild nämlich ein Portemonnaie statt einer Kuh und ist dennoch als Kuh ausgezeichnet, lernt das Modell, Portemonnaies zu zeigen, wenn jemand per Prompt eigentlich eine Kuh sehen will.“
Das gesamte KI-Modell könne hierdurch Schaden nehmen – für alle Nutzer. In Tests mit einer eigenen Version vom Bildgenerator Stable Difussion hätten beispielsweise 50 vergiftete Bilder ausgereicht, dass Hunde begannen komisch auszusehen, 300 manipulierte Bilder später seien aus Hunden Katzen geworden.
Mehr zu beiden Tools, ihrer jeweiligen Funktionsweise und ihrem Einsatzpotenzial lest Ihr hier:
Most Popular