Das am MIT entwickelte PhotoGuard verändert Fotos auf eine Weise, die für uns nicht wahrnehmbar ist, aber KI-Systeme daran hindert, sie zu manipulieren.
Interessanter Ansatz, aber vermutlich nicht wirklich hilfreich. Wie im Artikel erwähnt, kann man natürlich alte Bilder nach wie vor benutzen, um damit AIs zu Speisen. Grade von den celebrities dieser Welt gibt's davon mehr als genug, von vielen von uns auch. Täuschend echte Fälschungen Mithilfe von LORAs können dann auch komplett neue Bilder der Betroffenen generieren. Das wird im Artikel nicht erwähnt. Mich würde auch interessieren, was zum Beispiel passiert, wenn man in einer Bildverarbeitungs Software beispielsweise einen sehr leichten Blur über das Bild legt - funktioniert es dann wieder? Die Details kann man mit den gleichen Tools aus dem Artikel (Stable diffusion) wieder "zurück-generieren" wenn überhaupt notwendig. Ich zweifle daran, ob solche protection-tools eine Chance haben, mit der Entwicklung der AI mitzuhalten, besonders wenn die Menge an zugänglichen AIs steigt. Das end-ziel der AI Entwickler wird es ja vermutlich sein, dass die AI sehr Menschen-ähnlich erkennt und erdenkt. Wenn wir da ein mal nah dran sind, wird es wohl schwer Bilder so zu sichern, dass es Menschen nicht auffällt.
Dennoch grade technisch sehr interessant. Schade dass der Artikel nicht mehr auf die angewandte Methode eingeht. Werde auf jeden Fall mal nachlesen was genau da passiert