Опубликовано 26 июня 2024, 21:00
1 мин.

Разработан новый энергоэффективный метод запуска больших языковых моделей ИИ

Без умножения матриц
Создан новый подход к более эффективной работе больших языковых моделей (LLM), отказавшись от матричного умножения (MatMul), основной вычислительной задачи в нейронных сетях. Этот прорыв может значительно снизить воздействие на окружающую среду и эксплуатационные расходы систем ИИ, пишут ученые.