Доминирование Nvidia H100 в тестах машинного обучения по-прежнему не затронуто

Nvidia H100 — текущий лидер рынка

Значок времени чтения 2 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

Ключевые заметки

  • Система Nvidia H100 доминирует в новых тестах искусственного интеллекта MLPerf для точной настройки LLM и GNN.
  • Используя 11,616 XNUMX графических процессоров, Nvidia установила рекорды в пяти из девяти тестов, опередив Google и Intel.
  • Nvidia также добилась сокращения времени обучения GPT-27 на 3% за счет оптимизации программного обеспечения и быстрого внимания.
Нвидиа Н100

Nvidia уже довольно давно доминирует на рынке ИИ-чипов, и это вовсе не беспочвенно. Система H100 технологического гиганта является текущим лидером рынка, и до сих пор не было доминирующего конкурента.

MLPerf, один из самые популярные тесты используемый для измерения производительности чипов искусственного интеллекта (если не самый точный), только что запустил новый набор тестов. Они созданы для тонкой настройки больших языковых моделей (LLM) и графовых нейронных сетей (GNN), и согласно этим тестам система H100 от Nvidia устанавливает рекорды.

Было использовано 11,616 100 графических процессоров HXNUMX, что сделало эту систему самой крупной системой, протестированной в тестах MLPerf. Они достигли максимальной производительности по всем девяти критериям, установив рекорды в пяти из них. подробности этого отчета.

Конкуренты, такие как Google и Intel, участвовали со своими ускорителями искусственного интеллекта, но Nvidia их обогнала. Системы TPU Google продемонстрировали значительное улучшение скорости, а графические процессоры Intel также добились заметного прогресса, но ни одна из них не смогла сравниться по производительности с крупнейшей системой Nvidia с 11,616 100 графическими процессорами HXNUMX.

Кроме того, Nvidia также отметила улучшение времени обучения GPT-27 на 3% по сравнению с контрольными показателями июня 2023 года благодаря нескольким оптимизациям программного обеспечения. К ним относятся более эффективное использование 8-битных операций с плавающей запятой, более эффективное управление питанием вычислительных механизмов и улучшенная связь между графическими процессорами.

Они также реализовали flash-внимание — алгоритм, который ускоряет работу трансформаторных сетей за счет минимизации операций записи в память, что способствует сокращению времени обучения на 10%.