У определения дипфейков на YouTube появилась лазейка: детский контент
Да, у них не будет ярлыкаЭто означает, что блогреы могут выпускать контент для детей, созданный искусственным интеллектом, не сообщая об этом. Родители, надеющиеся выявить такое видео, остаются один на один с собственными знаниями об ИИ для их вычисления. Еще больше запутывая ситуацию, YouTube также освобождает от требований раскрытия информации «незначительные правки», такие как фильтры и создание сценариев.
В недавних отчетах говорится о росте числа каналов детского контента, созданных искусственным интеллектом, на которых выкладываются низкокачественные видео с типовыми персонажами и нелепыми сюжетами. Такие видео могут проскользнуть через родительские фильтры и алгоритм рекомендаций YouTube, что может привести к распространению среди детей «сомнительного контента», отмечают эксперты.
YouTube обосновывает это исключение тем, что явно нереалистичные анимации не вводят в заблуждение. В то время как некоторый проблемный контент, созданный искусственным интеллектом, например видео с теорией заговора, ориентированные на более старых пользователей, будет отмечен в соответствии с новыми правилами, грань становится размытой в случае с плохо сделанными мультфильмами.