ИИ может стать жертвой собственных данных, показало исследование
В своей работе ученые продемонстрировали, как последующие поколения ИИ-моделей, обученных на данных предыдущих, постепенно теряют способность к обучению. Вместо осмысленного контента они начинают генерировать бессмысленные повторы.
Исследователи предупреждают, что бесконечное обучение ИИ на собственных данных может привести к катастрофическим последствиям. Для предотвращения этого необходимо тщательно фильтровать данные, используемые для обучения моделей.
Одновременно с этим, компании, которые используют для обучения ИИ исключительно человеческие данные, могут получить существенное преимущество в развитии своих технологий.
Ученые подчеркивают важность использования качественных и разнообразных данных для обучения искусственного интеллекта, чтобы избежать негативных последствий.