Опубликовано 11 декабря 2024, 07:08
1 мин.

Ученые нашли строчку кода, которая взламывала ИИ чат-бота уровня ChatGPT

К счастью, дыра уже закрыта
Исследователи обнаружили серьезную уязвимость в недавно выпущенной ИИ-модели DeepSeek-R1-Lite, которая позволяла через XSS (Cross-Site Scripting) атаковать учетные записи пользователей.
Ученые нашли строчку кода, которая взламывала ИИ чат-бота уровня ChatGPT

Уязвимость проявлялась при работе с внешними данными, такими как загруженные документы, и позволяла злоумышленникам получить доступ к токенам сессий.

Ключевой момент — использование специальной строки кода на JavaScript, которая обращалась к локальному хранилищу браузера и выводила токен сессии пользователя.

Для обхода систем защиты данные шифровались с помощью base64. Это помогало атаке оставаться незамеченной стандартными фильтрами безопасности.

После раскрытия проблемы, команда DeepSeek оперативно устранила уязвимость, продемонстрировав высокий уровень ответственности.

Впрочем, этот случай в очередной раз подчеркивает важность тестирования ИИ-моделей на безопасность перед их выпуском.