WhatsApp подвергся нападкам за сгенерированные искусственным интеллектом стикеры о Палестине
По данным The Guardian, при поиске слов «палестинец», «Палестина» или «мусульманский мальчик палестинец», пользователи получали стикеры с изображением оружия или мальчика с оружием.
В то же время запросы, связанные с Израилем, приводили к более мирным изображениям, таким как играющие или читающие дети.
Представители мессенджера заявили, что осведомлены о проблеме и работает над ее решением. В компании подчеркнули, что, как и в случае с любыми генеративными ИИ-системами, модели могут выдавать неточные или неподобающие результаты, и что они будут продолжать улучшать эту функцию на основе отзывов пользователей.
Произошедшее происходит на фоне обвинений в адрес материнской компании WhatsApp в теневой блокировке контента, поддерживающего Палестину, и добавлении метки «террорист» к палестинским биографиям.
Другие ИИ-системы, включая Google Bard и ChatGPT, также показали значительные признаки предвзятости в вопросах, касающихся Израиля и Палестины.