Трое сотрудников Samsung случайно слили секреты компании в ChatGPT
Недавно Samsung позволила сотрудникам использовать ChatGPT в качестве инструмента для решения рабочих задач. Это и привело к утечке конфиденциальной информации. Причём разработчик нейросети компания Open AI объясняет в своей документации, что бот нельзя использовать для работы с секретными данными, поскольку система обучается на взаимодействии с пользователями. И тот контент, который система получит, может появиться в её ответах другим пользователям.
Все три сотрудника Samsung об этом, видимо, не знали, потому что один из них обратился к чат-боту с задачей проверить исходный код конфиденциальной базы данных на наличие ошибок, другой попросил оптимизировать код, а третий ввёл в ChatGPT запись совещания и попросил нейросеть составить протокол.
Теперь в Samsung ввели ряд мер, в том числе ограничение длины запросов сотрудников в ChatGPT килобайтом, или 1024 символами текста. Сообщается, что компания создаёт собственный чат-бот для предотвращения проблемных ситуаций.