Google в ненормальных ответах своего ИИ обвинила пользователей
Для обучения Gemini Google использует информацию из контента на сайтах, из поисковой выдачи. Технология AI Overview, которая и формирует ответы, не была достаточно обучена для бесперебойной выдачи релевантных ответов. К тому же Gemini не распознаёт иронию.
По этой причине пользователи и получали странные и дурацкие ответы, так как нейросеть искала данные, в том числе на сайтах с сатирой. Тем не менее в Google считают, что, несмотря на действительно абсурдные под час советы, скриншоты со многими по-настоящему опасными ответами были сфабрикованы. По логике разработчиков, Gemini не могла посоветовать оставлять в машине собаку или доказывать пользу курения во время беременности.
Поэтому в Google считают, что ажиотаж вокруг ошибок Gemini был создан искусственно. Но всё же разработчики нейросети внедрили «фильтры» для распознавания контекста бессмысленных запросов, на которые заведомо невозможно дать ответ, сатиры и иронии.