tech

Nightshade

Poison for AI - Bild: Dall·e

Download am Dienstag. KI ist Gift für die Kreativität. Mit dem kostenlosen Tool Nightshade können Künstler sich jetzt wehren, denn Nightshade vergiftet die Bilder auf Pixelebene, so dass diese für das Training der KI unbrauchbar werden.

Im Rahmen des Glaze-Projekts an der Universität von Chicago entstand unter der Leitung von Professor Ben Zhao ein Tool, das KI gegen KI einsetzt. Die Informatiker nutzen das beliebte Open-Source-Framework für maschinelles Lernen PyTorch, um zu erkennen, was sich in einem bestimmten Bild befindet. Dann versehen die Computerwissenschaftler das Bild mit einem Tag, der das Bild auf Pixelebene subtil verändert, so dass andere KI-Programme etwas völlig anderes sehen als das, was tatsächlich vorhanden ist.

Ausgangspunkt war ein fehlender Schutz von Künstlern und Kreativen vor der Reichweite der KI. Für Eigentümer und Urheber von Inhalten gibt es nur wenige Werkzeuge, die verhindern können, dass ihre Inhalte gegen ihren Willen in ein generatives KI-Modell eingespeist werden. Opt-out-Listen wurden in der Vergangenheit von Modelltrainern missachtet. Sie können einfach ignoriert werden, ohne dass dies Konsequenzen hätte, weil in den meisten Fällen nicht zu ermitteln wäre, wer den virtuellen Sperrvermerk ignoriert hat.

Nightshade benötigt einen Mac mit Apple Silicon (M1, M2, M3) oder einen PC mit Windows 10 oder 11 mit einer GPU von Nvidia. Das Tool kann für beide Betriebssysteme hier heruntergeladen werden:
nightshade.cs.uchicago.edu/downloads.html

, , ,

Kommentare sind geschlossen.

Powered by WordPress. Designed by Woo Themes

%d Bloggern gefällt das: