Microsofts Computational Network Toolkit slår Google TensorFlow i den distribuerte dyplæringsytelsen

Ikon for lesetid 2 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

CNTK-diagram

I fjor avslørte Microsoft Research Computational Network Toolkit (CNTK), et enhetlig beregningsnettverksrammeverk som beskriver dype nevrale nettverk som en serie beregningstrinn via en rettet graf. Med kombinasjonen av CNTK og Microsofts Azure GPU Lab, har Microsoft en distribuert GPU-plattform som fellesskapet kan bruke for å fremme AI-forskning. Siden lanseringen av CNTK i fjor har MSR-teamet forbedret maskinlæringseffektiviteten betydelig med Azure GPU Lab. Faktisk tilbyr CNTK nå den mest effektive distribuerte beregningsytelsen som slår Googles TensorFlow og andre.

For virksomhetskritisk AI-forskning mener vi effektivitet og ytelse bør være et av de viktigste designkriteriene. Det finnes en rekke verktøysett for dyp læring tilgjengelig fra Torch, Theano og Caffe til de nylig åpne verktøysettene fra Google og IBM. Vi sammenlignet CNTK med fire populære verktøysett. Vi fokuserer på å sammenligne den rå beregningseffektiviteten til forskjellige verktøysett ved å bruke simulerte data med en effektiv mini batchstørrelse (8192) for å utnytte alle GPUer fullt ut. Med et fullt tilkoblet 4-lags nevralt nettverk (se vår benchmark-skript), antall rammer hvert verktøysett kan behandle per sekund er illustrert i diagrammet. Vi inkluderer to konfigurasjoner på en enkelt Linux-maskin med henholdsvis 1 og 4 GPUer (Nvidia K40). Vi rapporterer også 8-GPU CNTK-hastigheten vår på Azure GPU Lab med 2 identiske Linux-maskiner (2 x 4 GPUer) som brukt i grunnlinjen. CNTK sammenligner seg gunstig når det gjelder beregningseffektivitet for distribuert dyp læring (4 GPUer eller 8 GPUer) på alle disse verktøysettene vi testet. CNTK kan enkelt skalere utover 8 GPUer på tvers av flere maskiner med overlegen distribuert systemytelse.

Mer om temaene: CNTK, Computational Network Toolkit, Dyp læring, google, maskinlæring, microsoft, forskning, tensorflow

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *