Новый российский стресс-тест проверит нейросети на устойчивость к краже личных данных
GLiRA поможет улучшить защиту ИИ-моделей/imgs/2025/03/25/16/6768054/65bd9327688c9a0123331b0e48737087ed9defc0.webp)
© Ferra.ru
GLiRA позволяет определить, входила ли конкретная информация в обучающий набор модели. Это поможет анализировать потенциальные угрозы утечек и разрабатывать стратегии защиты. Проблема безопасности данных становится все более актуальной, особенно в областях, где нейросети обрабатывают конфиденциальную информацию, таких как медицина и финансы.
Метод основан на принципе дистилляции знаний и работает в условиях «черного ящика», когда атакующий не имеет доступа к архитектуре модели, но может взаимодействовать с ней через интерфейс. Ученые использовали этот подход для обучения теневых моделей, которые имитируют поведение оригинальных нейросетей. В ходе тестов точность атак с применением GLiRA оказалась на 7% выше, чем у существующих методов.
По словам руководителя научной группы Олега Рогова, понимание уязвимостей поможет разработчикам совершенствовать механизмы защиты нейросетей.