Опубликовано 23 ноября 2024, 05:15
1 мин.

ИИ для поиска насилия над детьми был обучен на фото с насилием над детьми

Реальных фото
Thorn, известная организация по обеспечению безопасности детей, в сотрудничестве с поставщиком решений в области искусственного интеллекта Hive разработала новый инструмент на базе ИИ, предназначенный для обнаружения материалов с сексуальным насилием над детьми (CSAM).
ИИ для поиска насилия над детьми был обучен на фото с насилием над детьми

Инструмент, являющийся расширением существующей платформы Safer компании Thorn, использует передовые модели машинного обучения, обученные на реальных CSAMданных из таких источников, как Национальный центр помощи пропавшим и эксплуатируемым детям (NCMEC). Эта разработка призвана выявлять ранее не зарегистрированные случаи CSAM в интернете.

ИИ-модель Safer — это значительный шаг вперед в борьбе с распространением CSAM в Интернете, особенно там, где технология хеширования не позволяет выявить новые материалы, пишут разработчики.