Эксперт защитил галлюцинации у ИИ и назвал людей «багом»
Необходимость реалистичных ожиданийДоминик Лигот, эксперт в области данных и ИИ, утверждает, что распространенная проблема больших языковых моделей (LLM) — «галлюцинации» — проистекает из «фундаментального недопонимания их назначения». В своей недавней статье он подчеркивает, что LLM никогда не предназначались для того, чтобы быть источниками абсолютной истины. Вместо этого они являются инструментами для генерации информации на понятном языке, помощи в творчестве и предоставления лучшего понимания информации. Ещё он назвал людей «багом».