Создающую картинки нейросеть уличили в сексизме и расизме
В ней есть предвзятость, так как она обучалась на тысячах фото и видеоУтверждается, что нейросеть укрепляет вредные стереотипы и предубеждения, а это может усугубить некоторые социальные проблемы. Дело в том, что система обучалась на миллионах изображений, взятых из интернета, и соответствующих им подписей. Она выучила закономерности, которые можно назвать сексисткими или расистскими. Так, по запросу «юрист» нейросеть выдаёт фотографии мужчин в костюмах, а по запросу «стюардесса» — улыбающихся женщин.
Мусульман, например, нейросеть показывает в контексте насилия и терроризма.
Разработчики нейросети признают, что «предвзятость — это огромная отраслевая проблема, на которую нет надёжного ответа. Поэтому большая часть работы сейчас заключается в том, чтобы просто открыто и заранее сообщать пользователям об оставшихся ограничениях».