De Computational Network Toolkit van Microsoft verslaat Google TensorFlow in de gedistribueerde deep learning-prestaties

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

CNTK-grafiek

Vorig jaar onthulde Microsoft Research Computational Network Toolkit (CNTK), een verenigd computationeel netwerkraamwerk dat diepe neurale netwerken beschrijft als een reeks rekenstappen via een gerichte grafiek. Met de combinatie van CNTK en Microsoft's Azure GPU Lab heeft Microsoft een gedistribueerd GPU-platform dat de gemeenschap kan gebruiken om AI-onderzoek vooruit te helpen. Sinds de lancering van CNTK vorig jaar heeft het MSR-team de efficiëntie van machine learning aanzienlijk verbeterd met Azure GPU Lab. In feite biedt CNTK nu de meest efficiënte gedistribueerde rekenprestaties en verslaat Google's TensorFlow en anderen.

Voor missiekritiek AI-onderzoek zijn wij van mening dat efficiëntie en prestaties een van de belangrijkste ontwerpcriteria moeten zijn. Er zijn een aantal deep learning-toolkits beschikbaar van: Fakkel, Theano en Caffe naar de recentelijk open source toolkits van Kopen Google Reviews en IBM. We vergeleken CNTK met vier populaire toolkits. We richten ons op het vergelijken van de onbewerkte rekenefficiëntie van verschillende toolkits met behulp van gesimuleerde gegevens met een effectieve mini-batchgrootte (8192) om alle GPU's volledig te benutten. Met een volledig verbonden 4-laags neuraal netwerk (zie onze benchmarkscripts), wordt het aantal frames dat elke toolkit per seconde kan verwerken, geïllustreerd in de grafiek. We hebben twee configuraties op een enkele Linux-machine met respectievelijk 1 en 4 GPU's (Nvidia K40). We rapporteren ook onze 8-GPU CNTK-snelheid op Azure GPU Lab met 2 identieke Linux-machines (2 x 4 GPU's) zoals gebruikt in de baseline-benchmark. CNTK steekt gunstig af in rekenefficiëntie voor gedistribueerd diep leren (4 GPU's of 8 GPU's) op al deze toolkits die we hebben getest. CNTK kan gemakkelijk meer dan 8 GPU's op meerdere machines schalen met superieure gedistribueerde systeemprestaties.

Meer over de onderwerpen: CNTK, Toolkit voor rekennetwerken, Diepe leren, google, machine learning, microsoft, onderzoek, TensorFlow

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *