Исследователи «отравили» рисующий картины ИИ
Довольно успешно – картины потеряли в качествеЭтот метод отравления данных незаметно изменяет изображения таким образом, что нарушает процесс обучения моделей искусственного интеллекта. Nightshade искажает обучающие данные, внося в изображения небольшие, незаметные изменения. Цель - ввести в заблуждение модели искусственного интеллекта при обучении на этих изображениях. Например, с помощью Nightshade исследователям удалось обмануть модель ИИ, заставив ее генерировать изображения кошек вместо собак.
Использование данных из Интернета в исследованиях ИИ является распространенной практикой, даже если эти данные содержат материалы, защищенные авторским правом, или изображения были использованы без разрешения их создателя. Исследователи признают, что Nightshade может быть использован в злонамеренных целях, но подчеркивают, что их основная задача - защита художников и авторов.
Эта разработка может спровоцировать гонку вооружений между исследователями, работающими над защитой творческих произведений от ИИ, и теми, кто стремится снабдить модели ИИ данными. В то время как крупные компании могут разработать контрмеры для защиты своих моделей, небольшие фирмы и проекты с открытым исходным кодом, обладающие ограниченными ресурсами, могут пострадать несоизмеримо больше.