В США создали «отраву» для моделей ИИ, которых незаконно обучают на изображениях
Чтобы бороться с недобросовестными разработчикамиСпециалисты Чикагского университета выпустили Nightshade 1.0 — инструмент, предназначенный для наказания недобросовестных создателей моделей машинного обучения, которые обучают свои системы на данных, предварительно не получив разрешения.