Миллионы пользователей ChatGPT оказались под угрозой утечки личных данных
Все из-за существенной бреши в безопасности в недавно добавленной на платформу функции интерпретатора кода.
Эта уязвимость, впервые обнаруженная исследователем безопасности Йоханном Ребергером и подтвержденная в ходе экспериментов, позволяет осуществлять атаки типа prompt injection, которые могут привести к утечке данных.
Суть проблемы заключается в работе интерпретатора кода с файлами в среде «песочницы». Пользователи могут загружать файлы для анализа или построения графиков, но этот процесс непреднамеренно открывает двери для злоумышленников.
Введя запрос через сторонний URL-адрес, хакеры могут приказать ChatGPT закодировать загруженные файлы в удобную для URL строку и затем передать эти данные на заранее подготовленный сервер.
Таким образом, злоумышленник получает конфиденциальную информацию, например, пароли или API-ключи.