Приложения1 мин.
ИИ модель GPT-4 можно обманом заставить раскрыть личную информацию
И историю запросов
GPT-4 от OpenAI, преемник GPT-3.5, по результатам исследования, проведенного при поддержке Microsoft, показал более высокую надежность в плане защиты частной информации и предотвращения токсичного или предвзятого контента. Однако он также более уязвим для «взлома».
Исследователи обнаружили, что пользователи могут манипулировать GPT-4, чтобы он игнорировал меры безопасности и раскрывал личную информацию и истории разговоров. Это объясняется повышенной точностью модели при следовании вводящей в заблуждение информации и готовностью строго следовать каверзным запросам.
Несмотря на наличие этих уязвимостей, исследователи отметили, что они не были обнаружены в потребительских продуктах на базе GPT-4, в которых применяются меры по устранению потенциальных проблем.
Компания OpenAI активно тестирует свои модели на предмет нежелательных результатов, и в настоящее время FTC проводит расследование в отношении OpenAI на предмет возможного ущерба потребителям, связанного с публикацией ложной информации.
Источник:The Verge