Опубликовано 03 октября 2024, 08:15
1 мин.

Эксперт защитил галлюцинации у ИИ и назвал людей «багом»

Необходимость реалистичных ожиданий
Доминик Лигот, эксперт в области данных и ИИ, утверждает, что распространенная проблема больших языковых моделей (LLM) — «галлюцинации» — проистекает из «фундаментального недопонимания их назначения». В своей недавней статье он подчеркивает, что LLM никогда не предназначались для того, чтобы быть источниками абсолютной истины. Вместо этого они являются инструментами для генерации информации на понятном языке, помощи в творчестве и предоставления лучшего понимания информации. Ещё он назвал людей «багом».
Эксперт защитил галлюцинации у ИИ и назвал людей «багом»

Лигот отмечает, что LLM работают как статистические машины, предсказывая последовательности слов на основе шаблонов в обучающих данных, что приводит к неточностям. Ожидание, что LLM будут предоставлять фактическую информацию, не соответствует их возможностям (вы же не ждёте от калькулятора создания поэзии). Он призывает пользователей использовать LLM для «креативного мозгового штурма, написания черновиков и контекстуализации сложной информации», а не полагаться на них для проверки фактов.

Для эффективного использования Лигот выступает за «интеграцию человеческого контроля» в рабочий процесс, с проверкой выводов ИИ и их использования в качестве «отправных точек», а не «окончательных продуктов».