Nvidia вновь побила рекорд в бенчмарке искусственного интеллекта
Но ей уже сложнее это делатьНо стоит уточнить, что стартапы Neuchips и SiMa опередили Nvidia по производительности на ватт по сравнению с Nvidia H100 и Jetson AGX Orin, соответственно. Ускоритель Qualcomm Cloud AI100 также показал хорошие результаты по энергоэффективности по сравнению с Nvidia H100 в некоторых сценариях. В MLPerf Inference 3.0 набор тестов не изменился, но был добавлен новый сценарий - сетевой.
Кроме того, были предоставлены улучшенные результаты вывода для Bert-Large, представляющий особый интерес, поскольку он наиболее близок по своей природе к большим языковым моделям (LLM), таким как ChatGPT.
Эталон MLPerf Inference необходим для оценки производительности моделей ИИ в различных сценариях. Недавний раунд показал достижения участников бенчмарка в плане производительности, энергоэффективности и оптимизации программного обеспечения.