Адвокат воспользовался ChatGPT в работе и сильно пожалел: нейросеть ссылалась на выдуманные дела
/imgs/2023/05/28/07/5922219/1f011c7e394643603ef1b00e265626ca4134cf4d.png)
© Ferra.ru / Kandinsky 2.1
Чтобы объяснить эту непонятную ситуацию, адвокат подал заявление под присягой, в котором утверждалось, что он полагался на помощь языковой модели искусственного интеллекта под названием ChatGPT. Адвокат утверждал, что ChatGPT предоставил ему юридические заключения и цитаты, что гарантирует его надежность.
Однако позже он все таки признал, что ChatGPT лгал, и выразил сожаление, что использовал его информацию, не проверив подлинность содержимого. Судья потребовал от юридической фирмы и адвоката обосновать, почему они не должны подвергнуться санкциям за свои действия.
Этот инцидент подчеркивает потенциальные риски, связанные с использованием исключительно моделей искусственного интеллекта при проведении юридических исследований.