Судья, вынесший решение на основе ответов ChatGPT, сам попал под следствие
Это решение, содержащее ложную информацию, было представлено в Национальный совет юстиции (CNJ).
Опираясь на данные ChatGPT, Родригес включил в свой вердикт несуществующие и неправдоподобные детали. В частности, ИИ ссылался на постановления Верховного суда, которых просто не существовало.
Подобное неправомерное использование ИИ при принятии правовых решений побудило CNJ рассмотреть вопрос о регулировании использования подобных технологий в судебной системе.
Этот случай не единичен. В мае 2023 года американский юрист Стивен Шварц также стал жертвой дезинформации со стороны ChatGPT.
Шварц использовал искусственный интеллект для подготовки юридических документов к судебному процессу, неосознанно включив в них недостоверную информацию, которая затем была передана в суд.