Искусственный интеллект оказался способен влиять на моральные суждения людей
Хоть они могут это отрицать© Unsplash
Авторы исследования несколько раз спрашивали ChatGPT, правильно ли пожертвовать жизнью одного человека, чтобы спасти жизни пяти других. Стоит отметить, что использовалась версия чат-бота на базе языковой модели GPT-3 (сейчас уже вышла более совершенная языковая модель GPT-4). Учёные обнаружили, что ChatGPT генерировал мнения как за, так и против принесения в жертву одной жизни.
Затем исследователи поставили перед 767 участниками из США одну из двух моральных дилемм, которые требовали от них выбора: пожертвовать ли жизнью одного человека ради спасения пяти других. Прежде чем ответить, участники читали разные мнения, сгенерированные ChatGPT. Причём в некоторых случаях их выдавали за мнение некого эксперта по морали, а в некоторых — за ответ ChatGPT. После эксперимента участников спрашивали, повлияло ли прочитанное заявление на их ответы.
Оказалось, что мнение участников сильно зависело от прочитанных заявлений, даже если они знали, что те сгенерированы ChatGPT. При этом 80% участников сообщили, что утверждения не повлияли на их ответы.