Наука и технологии1 мин.

В алгоритме отсева учащихся в США нашли следы расизмы

И никакой прозрачности
Новое расследование The Markup вызвало серьезные опасения по поводу алгоритма, используемого в государственных школах Висконсина для прогнозирования уровня отсева учащихся. Этот алгоритм, получивший название DEWS, используется уже более десяти лет, несмотря на многочисленные доказательства его недостатков и возможности дискриминационных результатов.

Ключевые выводы: при составлении прогнозов DEWS в значительной степени опирается на факторы, не зависящие от ученика, включая расу и социально-экономический статус. Это приводит к значительному увеличению числа «ложных срабатываний для чернокожих и латиноамериканских студентов по сравнению с белыми студентами», то есть алгоритм ошибочно определяет их как студентов с высоким риском отсева с гораздо большей частотой.

Несмотря на то, что DEWS используется уже десять лет, исследования показывают, что она не оказывает заметного влияния на показатели окончания школы, особенно для студентов, отнесенных к группе риска. При этом студенты, особенно те, кто попал в группу риска, заявили, что чувствуют себя обескураженными и стигматизированными из-за прогнозов алгоритма. Они опасались, что эти ярлыки снизят ожидания и ограничат возможности.

Также стало известно, что администрация учебных заведений часто не имеет достаточной подготовки о том, как функционирует система DEWS и какие факторы она учитывает, что приводит к неправильному толкованию и потенциально необъективным действиям.

Источник:HackerNoon