Nvidia вновь побила рекорд в бенчмарке искусственного интеллекта
Но ей уже сложнее это делать/imgs/2023/04/09/07/5866765/e93a55f8663f5b4c97ef9ea3574602b3ef0437c8.png)
Но стоит уточнить, что стартапы Neuchips и SiMa опередили Nvidia по производительности на ватт по сравнению с Nvidia H100 и Jetson AGX Orin, соответственно. Ускоритель Qualcomm Cloud AI100 также показал хорошие результаты по энергоэффективности по сравнению с Nvidia H100 в некоторых сценариях. В MLPerf Inference 3.0 набор тестов не изменился, но был добавлен новый сценарий - сетевой.
Кроме того, были предоставлены улучшенные результаты вывода для Bert-Large, представляющий особый интерес, поскольку он наиболее близок по своей природе к большим языковым моделям (LLM), таким как ChatGPT.
Эталон MLPerf Inference необходим для оценки производительности моделей ИИ в различных сценариях. Недавний раунд показал достижения участников бенчмарка в плане производительности, энергоэффективности и оптимизации программного обеспечения.