Колесо Сансары дало оборот: искусственный интеллект теперь обучается на работах другого ИИ
Эти модели опираются на обучающие данные, полученные из созданного человеком контента, например, книг и статей. Однако по мере того, как созданный ИИ контент становится все более распространенным в Интернете, исследователи обнаружили тревожную проблему: использование созданного самой моделью контента при обучении приводит к необратимым дефектам в результирующих моделях ИИ.
Исследователи наблюдали явление под названием «коллапс модели», когда модели, обученные на данных, созданных ИИ, постепенно забывают истинное базовое распределение данных и выдают ошибочный контент. Процесс разрушения модели происходит относительно быстро, в результате чего модели со временем работают хуже и генерируют менее разнообразные и точные ответы.
По мнению авторов исследования, это событие имеет значительные последствия для технологий ИИ, поскольку становится сложнее обучать новые модели, используя данные, собранные в Интернете.