Nightshade – Hat das Wettrüsten im Bereich der KI begonnen?
Die Universität von Chicago hat ein neues „revolutionäres“ Tool namens „Nightshade“ entwickelt, das darauf abzielt, die Trainingsdaten von KI-Modellen zu „vergiften“ um diese unbrauchbar zu machen oder besser umn die Ergebnisse, die die KI auf Basis dieser Trainingsdaten liefert, unbrauchbar zu machen. Es geht dabei vor allem um Bilder, die für das KI-Training verwendet werden um damit dann wieder neue Bilder mit der KI zu generieren. Dieses „vergiften“ geschieht durch subtile Änderungen an oder besser in den Bildern, die für das menschliche Auge nicht sichtbar sind, aber von KI-Systemen in den Trainingssessions interpretiert werden können. Ziel ist, dass später der Nutzer der KI nicht das Bild bekommt, das er…