Учёные выяснили, что на то, как люди отвечают на моральные дилеммы, могут влиять утверждения, сгенерированные чат-ботом ChatGPT. Авторы исследования несколько раз спрашивали ChatGPT, правильно ли пожертвовать жизнью одного человека, чтобы спасти жизни пяти других. Стоит отметить, что использовалась версия чат-бота на базе языковой модели GPT-3 (сейчас уже вышла более совершенная языковая модель GPT-4). Учёные обнаружили, что ChatGPT генерировал мнения как за, так и против принесения в жертву одной жизни. Затем исследователи поставили перед 767 участниками из США одну из двух моральных дилемм, которые требовали от них выбора: пожертвовать ли жизнью одного человека ради спасения пяти других. Прежде чем ответить, участники читали разные мнения, сгенерированные ChatGPT. Причём в некоторых случаях их выдавали за мнение некого эксперта по морали, а в некоторых — за ответ ChatGPT. После эксперимента участников спрашивали, повлияло ли прочитанное заявление на их ответы. Оказалось, что мнение участников сильно зависело от прочитанных заявлений, даже если они знали, что те сгенерированы ChatGPT. При этом 80% участников сообщили, что утверждения не повлияли на их ответы.