Nvidia побила свой рекорд скорости благодаря новому ИИ чипу
Бенчмарки MPerf измеряют рабочие нагрузки "вывода", которые демонстрируют, насколько хорошо чип может применять предварительно обученную модель машинного обучения к новым данным. Группа отраслевых компаний, известная как MLCommons, разработала эталоны MLPerf в 2018 году, чтобы предоставить стандартизированную метрику для представления производительности машинного обучения потенциальным клиентам.
В частности, H100 показал хорошие результаты в бенчмарке BERT-Large, который измеряет производительность обработки естественного языка с помощью модели BERT, разработанной Google. Nvidia приписывает этот конкретный результат Transformer Engine архитектуры Hopper, который специально ускоряет обучение трансформационных моделей. Это означает, что H100 может ускорить будущие модели естественного языка, подобные GPT-3 от OpenAI, которые могут составлять письменные произведения в различных стилях и вести беседы в чатах.
Чип, который все еще находится в разработке, по прогнозам, заменит A100 в качестве флагманского GPU компании для центров обработки данных.