Опубликовано 18 августа 2024, 20:13
1 мин.

Новое исследование принизило заявления об «экзистенциальной угрозе» ИИ

Всё лучше, чем кажется на первый взгляд
Недавнее исследование опровергает мнение о том, что ИИ, в частности большие языковые модели (LLM), представляют непосредственную экзистенциальную угрозу для человечества. Исследователи из Университета Бата и Технического университета Дармштадта, выступая на 62-й ежегодной встрече Ассоциации вычислительной лингвистики (ACL 2024), утверждают, что LLM «по своей сути контролируемы, предсказуемы и безопасны».
Новое исследование принизило заявления об «экзистенциальной угрозе» ИИ

Исследование опровергает опасения, что ИИ будет автономно развиваться, выходя за рамки своих программ или развивая новые опасные возможности. По словам доктора Хариша Тайяра Мадабуши, LLM могут следовать только четким инструкциям и не способны к инновациям или непредсказуемым действиям за пределами заданных параметров.

Несмотря на свои возможности по обработке языка и выполнению задач, LLM принципиально ограничены своим кодом и не могут выйти за рамки своих функций без нового ввода. Исследователи подчеркивают, что беспокойство по поводу ИИ должно быть сосредоточено на неправильном использовании и этических последствиях его применения, а не на страхах перед «саморазвивающимися сверхинтеллектами».