Разгадка тайны машинного обучения на примере GPT-3, на которой работает нашумевшая нейросеть ChatGPT
И не только онаБольшие языковые модели, такие как GPT-3 разработки OpenAI, представляют собой массивные нейронные сети, способные генерировать человекоподобный текст. Они обучены с помощью огромного количества данных из Интернета. Новое исследование показывает, как такие модели могут выучить новую задачу всего на нескольких примерах, без необходимости получения новых данных для обучения.