Ученые раскрыли проблемы в «рассуждениях» искусственного интеллекта
Более того, при предъявлении контрфактических алфавитов LLM демонстрируют снижение точности, демонстрируя отличные от человеческих модели ошибок, что указывает на недостаток абстрактного мышления, необходимого для продвинутого ИИ, к которому сейчас стремятся многие компании.
Сравнение между человеческим интеллектом и LLM, несмотря на свою проницательность, сталкивается с трудностями. LLM работают в цифровой сфере, что ограничивает возможность прямого сравнения с человеческими способностями, выраженными в цифровом виде. Хотя LLM демонстрируют мастерство выполнения задач, им не хватает эмоциональной привязанности, угрызений совести и осознания последствий — характеристик, присущих человеческому познанию.
Несмотря на свое мастерство в выполнении цифровых задач, LLM создают уникальные проблемы в области цифровой безопасности. Их возможности распространяются на создание поддельного контента, что вызывает опасения по поводу распространения дезинформации и угроз кибербезопасности. По мере того как LLM перемещаются по сложной цифровой среде, обеспечение их ответственного использования приобретает первостепенное значение для снижения рисков цифрового заражения и вредоносной деятельности.
Для решения этих проблем крайне необходимы усилия по согласованию возможностей LLM с человеческим познанием и разработке мер защиты от цифровых рисков. Понимание параллелей между квалификационными характеристиками LLM и когнитивными функциями человека может послужить основой для разработки стратегий безопасности ИИ и управления цифровой памятью, защищающих от распространения вредоносного цифрового контента и киберугроз, сообщают эксперты.