Hugging Face – GitHub для ИИ – размещал вредоносный код на платформе
К счастью, не намеренно/imgs/2024/03/02/16/6380431/bd439c9dd549fa115e91ce9bd330af5567892d9a.png)
Согласно отчету, около 100 работ на Hugging Face содержали скрытые действия, которые представляли угрозу безопасности при загрузке на пользовательские устройства. Хотя большинство из них выглядели безобидно и служили для проверки концепции, исследователи выявили 10 моделей, которые были признаны "по-настоящему вредоносными", ставящими под угрозу безопасность пользователей при загрузке.
Особое беспокойство вызвала модель, которая инициировала Reverse Shell, предоставляя удаленный доступ к устройству пользователя. Хотя модель не выполняла дальнейших действий в контролируемой среде JFrog, последствия такого эксплойта весьма серьезны и могут привести к масштабным утечкам данных или корпоративному шпионажу.
Вредоносные модели использовали формат сериализации pickle - известную уязвимость, позволяющую злоумышленникам выполнять произвольный код в процессе десериализации. Несмотря на усилия Hugging Face по обнаружению и смягчению последствий подобных угроз, исследователи обнаружили пробелы в мерах безопасности платформы.