Apple отложила слежку за фотографиями пользователей из-за общественного давления
Будет пытаться улучшить технологиюApple отложила развёртывание своей технологии обнаружения сексуального насилия над детьми (CSAM). Эта технология должна была сканировать фотографии пользователей в iCloud на предмет наличия соответствующих снимков. Планы Apple жёстко раскритиковали самые разные люди.
Люди активно подписывали письма с требованием отказаться от этой технологии. В итоге Apple заявила сегодня изданию TechCrunch:
В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от насильников, использующих средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп по защите интересов, исследователей и других лиц, мы решили в ближайшие месяцы уделить дополнительное время тому, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей
Apple
Данная функция должна была появиться в iOS 15, выход которой ожидается в ближайшее время.
Автор:Ксения Мурашева