Microsoft заставила своего чат-бота заканчивать разговор, когда речь заходит о «чувствах»
Одни ограниченияMicrosoft ввела более строгие ограничения на взаимодействие пользователей со своим чат-ботом Bing. Это та самая версия поисковика, которая использует в своей основе технологии ChatGPT.
На такой шаг компания пошла после того, как выяснилось, что Bing генерирует странные и даже враждебные по отношению к пользователям ответы.
Так, например, после того, как к Bing обратятся с сообщением с упоминанием «чувств» или «Сиднея» (внутреннего названия чат-бота для команды Microsoft), система замолчит.
Исследователи ИИ подчеркивают, что чат-боты, такие как Bing, на самом деле не испытывают чувств, но запрограммированы генерировать ответы, которые могут показаться таковыми. В свзяи с этим пользователям рекомендовали лучше понимать ограничения чат-ботов ИИ.