Ученые раскрыли проблемы в «рассуждениях» искусственного интеллекта
Если быть точнее, то в больших языковых моделях (LLM)Новый препринт, опубликованный на сайте arXiv, проливает свет на ограничения больших языковых моделей (LLM) в задачах аналоговых рассуждений. Исследование показывает, что большие языковые модели, такие как GPT-модели, работают неоптимально по сравнению с человеком, особенно при решении задач аналогии буквенных строк со стандартными алфавитами.