Опубликовано 18 октября 2023, 07:01
1 мин.

Близкие к Microsoft исследователи нашли недостатки у используемой в платной версии ChatGPT технологии

Модель-то, оказывается, болтушка
В недавно опубликованной научной статье, связанной с Microsoft, исследователи рассмотрели «надёжность» и токсичность крупных языковых моделей (LLM), включая GPT-4 и GPT-3.5 от OpenAI.
Близкие к Microsoft исследователи нашли недостатки у используемой в платной версии ChatGPT технологии

Авторы статьи пришли к выводу, что GPT-4 может легче, чем другие LLM, генерировать токсичный и предвзятый текст, особенно при использовании определённых запросов.

Это может произойти из-за того, что GPT-4 более точно следует инструкциям, даже если они вводят её в заблуждение.

Исследователи обнаружили, что данная модель может генерировать более токсичный текст, чем GPT-3.5, при использовании определённых запросов. Кроме того, GPT-4 может раскрывать частную, конфиденциальную информацию, такую как адреса электронной почты.

Все LLM могут раскрывать информацию из данных, на которых они обучены, но GPT-4 оказался более уязвимым в этом плане.