Опубликовано 29 декабря 2024, 18:45
1 мин.

В «Касперском» составили руководство по безопасной разработке ИИ

Следуйте им и будет вам «счастье»
«Лаборатория Касперского» выпустила руководство, призванное помочь организациям снизить киберриски, связанные с технологиями искусственного интеллекта (ИИ). Документ был представлен на Форуме ООН по управлению интернетом в Эр-Рияде в декабре 2024 года. Руководство ориентировано на разработчиков, системных администраторов и команды DevOps и предлагает практические советы по предотвращению технических недостатков и операционных рисков.
В «Касперском» составили руководство по безопасной разработке ИИ

Руководство, созданное при участии ведущих экспертов, охватывает ключевые аспекты разработки, внедрения и обеспечения безопасности систем ИИ. В нем подчеркивается важность защиты моделей ИИ, особенно использующих системы сторонних производителей, для предотвращения утечки данных и ущерба репутации. Среди основных рекомендаций — обучение специфическим угрозам ИИ, моделирование угроз, защита облачных сред, защита цепочек поставок и регулярное тестирование моделей ИИ.

В «Касперском» также рекомендуют использовать такие методы, как обнаружение аномалий, для защиты компонентов ИИ от конкретных угроз.

Полный текст руководства доступен на сайте "Касперского".