Названа ещё одна причина, по которой Microsoft ограничила общение пользователей с искусственным интеллектом в поисковике Bing
Система не понимает слово «чувства»Издание Bloomberg привело ещё одну причину, по которой Microsoft пришлось урезать функционал своей поисковой системы Bing с интегрированной нейросетью ChatGPT.
Как оказалось, поисковик не просто начал генерировать буквально тонны бессмысленных ответов на вопросы, которые «не понимал», но и отвечал враждебно.
Например, одному из тестировщиков система ответила, что он несчастлив в браке и влюблён в бота, другого сравнил с неким отрицательным персонажем. Но важным фактором сокращения возможностей для диалога Bing c пользователями стал тот факт, что поисковик не может воспринимать слово «чувства» и всё, что с этим понятием связано.
В таком случае система прекращает диалог. Это же касается и псевдонима «Сидней», который используется командой разработчиков Bing для внутренних коммуникаций.