Наука и технологии

Большинство интернет-видео с реалистичной подменой лица оказались порнографией

А кто-то ожидал иного результата?
Почти два года назад, в ноябре 2017-го, на Reddit было опубликовано несколько порно-видео, сделанные с помощью нейросети DeepFake. Отличительной особенностью данных видео было то, что нейросеть смогла достаточно правдоподобно заменить лица порно-актрис на лица актрис голливудских фильмов. И вот новейшие исследования показывают, что даже спустя так много времени основным типом видео, которые создаются при помощи DeepFake, носят порнографический характер.

Исследователи из Startup Deeptrace провели своего рода перепись видео с использованием DeepFake, затронув временной промежуток с июня по июль. В итоге было обнаружено почти 15 тыс видео, использующих данную нейросеть, а 96% из этих видео оказались порно-роликами. С одной стороны, данный факт сложно назвать удивительным, а с другой, результат исследования явно показывает, что все эти панические запреты DeepFake накануне президентских выборов — не более, чем пропаганда, так как основной целью использования нейросети все еще остается создание порно.

Забавный факт: все люди, которые были отредактированы при помощи нейросети, были женщинами. А видео, на которых фигурировали лица западных актрис и южнокорейских поп-знаменитостей, имели миллионы просмотров.