В алгоритме отсева учащихся в США нашли следы расизмы
И никакой прозрачностиКлючевые выводы: при составлении прогнозов DEWS в значительной степени опирается на факторы, не зависящие от ученика, включая расу и социально-экономический статус. Это приводит к значительному увеличению числа «ложных срабатываний для чернокожих и латиноамериканских студентов по сравнению с белыми студентами», то есть алгоритм ошибочно определяет их как студентов с высоким риском отсева с гораздо большей частотой.
Несмотря на то, что DEWS используется уже десять лет, исследования показывают, что она не оказывает заметного влияния на показатели окончания школы, особенно для студентов, отнесенных к группе риска. При этом студенты, особенно те, кто попал в группу риска, заявили, что чувствуют себя обескураженными и стигматизированными из-за прогнозов алгоритма. Они опасались, что эти ярлыки снизят ожидания и ограничат возможности.
Также стало известно, что администрация учебных заведений часто не имеет достаточной подготовки о том, как функционирует система DEWS и какие факторы она учитывает, что приводит к неправильному толкованию и потенциально необъективным действиям.