Опубликовано 21 июня 2024, 23:33
1 мин.

Создан метод определения “галлюцинирования” ИИ

Когда языковые модели ИИ фабрикуют ответы
Исследователи из Оксфордского университета разработали метод, позволяющий обнаружить, когда большие языковые модели (LLM) генерируют неточные ответы, называемые "конфабуляциями". В отличие от ошибок, возникающих из-за дезинформации в обучающих данных, конфабуляции - это произвольные и часто уверенно неверные ответы LLM.