Наука и технологии2 мин.

Люди определяют дезинформацию даже без помощи модераторов соцсетей

Люди не так глупы, как того хотят платформы
Платформы часто используют алгоритмы машинного обучения или человеческие средства проверки фактов, чтобы отмечать ложный или дезинформирующий контент для пользователей. Однако исследование показало, что пользователи сами могу с этим справиться.

Ученые провели исследование, в котором передали “власть” в руки пользователей социальных сетей. Сначала они опросили людей, чтобы узнать, как они избегают или фильтруют дезинформацию в социальных сетях. Используя полученные данные, исследователи разработали прототип платформы, которая позволяет пользователям оценивать точность контента, указывать, каким пользователям они доверяют в оценке точности, и фильтровать сообщения, появляющиеся в их ленте, на основе этих оценок.

В ходе полевого исследования было установлено, что пользователи способны эффективно оценивать дезинформирующие сообщения без предварительного обучения. Более того, пользователи оценили возможность оценивать сообщения и просматривать оценки в структурированном виде. Исследователи также заметили, что участники по-разному использовали фильтры контента - например, одни блокировали весь дезинформирующий контент, а другие использовали фильтры для поиска таких статей.

Эта работа показывает, что децентрализованный подход к модерации может привести к повышению надежности контента в социальных сетях, говорят авторы работы. Этот подход также более эффективен и масштабируем, чем централизованные схемы модерации, и может заинтересовать пользователей, которые не доверяют платформам, добавляют они.

"Многие исследования в области дезинформации предполагают, что пользователи не могут решить, что правда, а что нет, и поэтому мы должны им помочь. Мы не увидели ничего подобного. Мы увидели, что люди действительно внимательно относятся к контенту, а также пытаются помочь друг другу. Но эти усилия в настоящее время не поддерживаются платформами", - говорится в заключении исследования.

Источник фото:Pixabay
Источник:MIT