Does anyone know of an existing open source project working on AI model poisoning or style cloaking, in the vein of #glaze and #nightshade?
I'm interested in this tech but they both seem to be proprietary, and I'd like to see if there is any work being done on the open source side of things.
#Nightshade is an offensive #DataPoisoning tool, a companion to a defensive style protection tool called #Glaze, which The Register covered in February last year.
Nightshade poisons #ImageFiles to give indigestion to models that ingest data without permission. It's intended to make those training image-oriented models respect content creators' wishes about the use of their work. #LLM#AI
This new data poisoning tool lets artists fight back against generative AI (7min) an interesting way to fight back against companies that scrap art online. I wonder how long before AI companies fight this back. Sounds like an eternal battle.
Crée par firefox, cet outil vous ouvre 100 onglets d'un coup pour du #datapoisoning (fausser vos données avec des tonnes de pubs qui ne sont pas dans votre intérêt pour tromper les trackers et la publicité sur le web, le profilage en soit.)
Mon pc est actuellement dead?, et il disent que ce n'est pas conseillé sur smartphone, c'est fâcheux.
Donc en attendant si vous avez déjà du retour, ça m'intéresse, et à d'autres sûrement ! Et si y a des alternatives, des modules, dites toujours