Популярный чат-бот ChatGPT, разработанный OpenAI, столкнулся с новым вызовом в области безопасности данных. Исследователи выяснили, что личные беседы пользователей с ботом, содержащие конфиденциальную информацию, такую как имена пользователей и пароли, оказались доступны третьим лицам. Согласно отчету ArsTechnica, один из пользователей обнаружил в своей истории чата диалоги, которые явно принадлежали кому-то другому. Эти утечки включали в себя данные от поддержки клиентов аптеки, включая названия порталов, номера магазинов и учетные данные для входа, а также названия презентаций и детали неопубликованных исследовательских предложений. Это не первый случай, когда ChatGPT сталкивается с проблемами утечки данных. Ранее, в марте и ноябре 2023 года, были зафиксированы аналогичные инциденты. OpenAI уже заявила, что проводит расследование последнего случая утечки. В свете этих событий компания призывает пользователей быть особенно осторожными при обмене чувствительной информацией с искусственным интеллектом, особенно если это касается ботов, не разработанных самими пользователями.