Ученые нашли строчку кода, которая взламывала ИИ чат-бота уровня ChatGPT
К счастью, дыра уже закрытаИсследователи обнаружили серьезную уязвимость в недавно выпущенной ИИ-модели DeepSeek-R1-Lite, которая позволяла через XSS (Cross-Site Scripting) атаковать учетные записи пользователей.
/imgs/2024/12/11/04/6680126/c438d359cf30e64528b6bdc6c83debcd30fd768a.jpeg)
Уязвимость проявлялась при работе с внешними данными, такими как загруженные документы, и позволяла злоумышленникам получить доступ к токенам сессий.
Ключевой момент — использование специальной строки кода на JavaScript, которая обращалась к локальному хранилищу браузера и выводила токен сессии пользователя.
Для обхода систем защиты данные шифровались с помощью base64. Это помогало атаке оставаться незамеченной стандартными фильтрами безопасности.
После раскрытия проблемы, команда DeepSeek оперативно устранила уязвимость, продемонстрировав высокий уровень ответственности.
Впрочем, этот случай в очередной раз подчеркивает важность тестирования ИИ-моделей на безопасность перед их выпуском.