Ваши данные в руках генеративного ИИ: плохо ли это и что можно сделать
На самом деле не так уж и много© Ferra.ru
Все большее беспокойство вызывает потенциальный вред, наносимый мощными генеративными системами ИИ, и то, как они обращаются с данными пользователей. Для эффективного обучения моделям искусственного интеллекта требуются огромные объемы данных, которые они часто получают с помощью инструментов веб-скреппинга и API, не делая различий между произведениями, защищенными авторским правом, и персональной информацией.
Отсутствие прозрачности в отношении источников данных со стороны компаний, занимающихся разработкой генеративного ИИ, вызывает тревогу. Многие пользователи не знают, что их данные могут быть использованы для работы технологий ИИ без их ведома или согласия. Кроме того, политики конфиденциальности компаний часто обновляются и расплывчаты, что позволяет им использовать данные в различных целях, в том числе для обучения систем генеративного ИИ, пишет Vox.
Регуляторы, законодатели и юристы бьются над проблемой конфиденциальности данных в генеративном ИИ. Италия, например, временно запретила ChatGPT из-за проблем с конфиденциальностью, а FTC проводит расследование в отношении OpenAI.
Коллективные иски и судебные разбирательства становятся для людей способом потребовать принятия мер и защитить свои права на конфиденциальность данных. Однако в настоящее время пользователи имеют ограниченные возможности для защиты своих данных.
Минимизация личной информации, предоставляемой в Интернете, может помочь, но данные, которые уже были взяты и использованы, может быть трудно контролировать.
Необходимость принятия всеобъемлющих законов о защите персональных данных, учитывающих влияние генеративного ИИ, становится все более насущной. До принятия радикальных законов пользователи и создатели контента могут полагаться лишь на судебные иски для защиты своих прав.