В Apple рассказали, как на самом деле будет работать сканирование детских фото в айфонах
По словам Федериги, система сканирует только фото, которые пользователь выкладывает в Icloud, все остальные остаются для системы недоступными. Чтобы пользователя заподозрили в хранении снимков с кадрами сексуального насилия над детьми, необходимо, чтобы в облаке набралось не менее 30 таких фото. Федериги подчеркнул, что система не просто сканирует фото, а определяет только фрагменты с вероятностью детского порно. Сначала фото проверяются многоступенчатым алгоритмом на айфоне, затем — на Icloud. И только если система соберёт достаточно «улик», специалисты безопасности Apple проверят фото в ручном режиме, чтобы окончательно убедиться, действительно ли снимки содержат детскую порнографию.
Федериги также подчеркнул, что «безопасность детей» — не только сканирование фото. Это ещё и функция оповещения родителей, если ребёнок получает на айфон или оправляет с него порнографические фото. Но этот алгоритм принципиально отличается от сканирования фото и касается только проверки снимков в iMessage. Также вице-президент Apple заверил, что все нововведения коснутся только «подозрительных» фото, и никак не затронут приватной жизни пользователей в целом.
Можно ли считать это заявление вице-президента Apple официальной позицией компании, пока не ясно — сделано оно было не на презентации, а на частном видео.