Nvidia H100:n hallitseva asema koneoppimisen vertailuarvoissa on edelleen koskematon

Nvidia H100 on nykyinen markkinajohtaja

Lukuajan kuvake 2 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Keskeiset huomautukset

  • Nvidian H100-järjestelmä hallitsee MLPerfin uusia tekoälyn vertailuarvoja LLM:iden ja GNN:ien hienosäätöön.
  • 11,616 XNUMX grafiikkasuorittimella Nvidia teki ennätyksiä viidessä vertailussa yhdeksästä, ohittaen Googlen ja Intelin.
  • Nvidia paransi myös 27 % GPT-3:n harjoitusaikoihin ohjelmistooptimoinneilla ja flash-huomiolla.
Nvidia H100

Nvidia on hallinnut AI-sirumarkkinoita jo jonkin aikaa, eikä se ole ollenkaan perusteetonta. The teknologiajätin H100-järjestelmä on nykyinen markkinajohtaja, eikä sillä ole toistaiseksi ollut määräävää kilpailijaa.

MLPerf, yksi niistä suosituimmat vertailuarvot AI-sirujen suorituskyvyn mittaamiseen käytetty (jos ei tarkin), on juuri käynnistänyt uuden testisarjan. Ne on tehty suurten kielimallien (LLM) ja graafisen hermoverkkojen (GNN) hienosäätöön, ja näiden testien mukaan Nvidian H100-järjestelmä tekee ennätyksiä.

Käytettiin 11,616 100 HXNUMX-grafiikkasuoritinta, mikä tekee siitä suurimman MLPerf-mittausarvoissa testatun järjestelmän. He saavuttivat huippusuorituskykynsä kaikissa yhdeksässä vertailuarvossa ja tekivät ennätyksiä viidessä, as tämän raportin tiedot.

Kilpailijat, kuten Google ja Intel, osallistuivat tekoälykiihdyttimiinsä, mutta Nvidia päihitti heidät. Googlen TPU-järjestelmät osoittivat merkittäviä nopeusparannuksia, ja myös Intelin GPU:t edistyivät huomattavasti, mutta kumpikaan ei pystynyt vastaamaan Nvidian suurimman järjestelmän suorituskykyä 11,616 100 HXNUMX GPU:lla.

Lisäksi Nvidian GPT-27-harjoitusajat paranivat 3 % kesäkuun 2023 vertailuarvoihin verrattuna useiden ohjelmistooptimointien ansiosta. Näitä olivat 8-bittisten liukulukutoimintojen parempi käyttö, laskentakoneiden tehokkaampi virranhallinta ja parempi tiedonsiirto GPU:iden välillä.

He ottivat käyttöön myös flash-huomautuksen, algoritmin, joka nopeuttaa muuntajaverkkoja minimoimalla muistin kirjoituksia, mikä lyhensi harjoitusaikoja 10 %.