Опубликовано 09 января 2025, 12:32
1 мин.

Даже «мизерный» объем дезинформации при обучении смог испортить ответы ИИ

Что может исказить медицинские ответы ИИ
Исследование Нью-Йоркского университета показывает, что внесение даже мизерного количества медицинской дезинформации в большие языковые модели (LLM) может существенно повлиять на их точность. Заменив всего 0,001% обучающих данных ложной информацией, исследователи обнаружили заметное снижение достоверности медицинских ответов.
Даже «мизерный» объем дезинформации при обучении смог испортить ответы ИИ

LLM, часто обучающиеся на огромном количестве данных из Интернета, подвержены «отравлению» неверной информацией, что может произойти без прямого доступа к модели, просто путем размещения в Интернете недостоверного контента, который модель может включить в процесс обучения. Даже крошечная доля дезинформации может привести к неправильным или вредным результатам.

Так, исследование было сосредоточено на базе данных The Pile, используемой для обучения LLM, и показало, что поврежденные данные влияют не только на конкретные темы, но и на общую надежность модели. Попытки исправить модели после обучения были «в основном неэффективны».