ИИ модель GPT-4 можно обманом заставить раскрыть личную информацию
И историю запросов/imgs/2023/10/18/10/6184406/85455c5b6b01e6cb2485f3796390d37acaf92e27.png)
© Ferra.ru / Kandinsky 2.2
Исследователи обнаружили, что пользователи могут манипулировать GPT-4, чтобы он игнорировал меры безопасности и раскрывал личную информацию и истории разговоров. Это объясняется повышенной точностью модели при следовании вводящей в заблуждение информации и готовностью строго следовать каверзным запросам.
Несмотря на наличие этих уязвимостей, исследователи отметили, что они не были обнаружены в потребительских продуктах на базе GPT-4, в которых применяются меры по устранению потенциальных проблем.
Компания OpenAI активно тестирует свои модели на предмет нежелательных результатов, и в настоящее время FTC проводит расследование в отношении OpenAI на предмет возможного ущерба потребителям, связанного с публикацией ложной информации.