Опубликовано 08 марта 2024, 03:00
1 мин.

Ученые раскрыли проблемы в «рассуждениях» искусственного интеллекта

Если быть точнее, то в больших языковых моделях (LLM)
Новый препринт, опубликованный на сайте arXiv, проливает свет на ограничения больших языковых моделей (LLM) в задачах аналоговых рассуждений. Исследование показывает, что большие языковые модели, такие как GPT-модели, работают неоптимально по сравнению с человеком, особенно при решении задач аналогии буквенных строк со стандартными алфавитами.
Ученые раскрыли проблемы в «рассуждениях» искусственного интеллекта

Более того, при предъявлении контрфактических алфавитов LLM демонстрируют снижение точности, демонстрируя отличные от человеческих модели ошибок, что указывает на недостаток абстрактного мышления, необходимого для продвинутого ИИ, к которому сейчас стремятся многие компании.

Сравнение между человеческим интеллектом и LLM, несмотря на свою проницательность, сталкивается с трудностями. LLM работают в цифровой сфере, что ограничивает возможность прямого сравнения с человеческими способностями, выраженными в цифровом виде. Хотя LLM демонстрируют мастерство выполнения задач, им не хватает эмоциональной привязанности, угрызений совести и осознания последствий — характеристик, присущих человеческому познанию.

Несмотря на свое мастерство в выполнении цифровых задач, LLM создают уникальные проблемы в области цифровой безопасности. Их возможности распространяются на создание поддельного контента, что вызывает опасения по поводу распространения дезинформации и угроз кибербезопасности. По мере того как LLM перемещаются по сложной цифровой среде, обеспечение их ответственного использования приобретает первостепенное значение для снижения рисков цифрового заражения и вредоносной деятельности.

Для решения этих проблем крайне необходимы усилия по согласованию возможностей LLM с человеческим познанием и разработке мер защиты от цифровых рисков. Понимание параллелей между квалификационными характеристиками LLM и когнитивными функциями человека может послужить основой для разработки стратегий безопасности ИИ и управления цифровой памятью, защищающих от распространения вредоносного цифрового контента и киберугроз, сообщают эксперты.