Microsofts Computational Network Toolkit slår Google TensorFlow i den distribuerade djupinlärningsprestanda
2 min. läsa
Publicerad den
Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer
Förra året avslöjade Microsoft Research Computational Network Toolkit (CNTK), ett enhetligt ramverk för beräkningsnätverk som beskriver djupa neurala nätverk som en serie beräkningssteg via en riktad graf. Med kombinationen av CNTK och Microsofts Azure GPU Lab har Microsoft en distribuerad GPU-plattform som communityn kan använda för att främja AI-forskning. Sedan lanseringen av CNTK förra året har MSR-teamet förbättrat maskininlärningseffektiviteten avsevärt med Azure GPU Lab. Faktum är att CNTK nu erbjuder den mest effektiva distribuerade beräkningsprestanda som slår Googles TensorFlow och andra.
För uppdragskritisk AI-forskning anser vi att effektivitet och prestanda bör vara ett av de viktigaste designkriterierna. Det finns ett antal verktyg för djupinlärning tillgängliga från Ficklampa, Theano och caffe till de nyligen öppna verktygssatserna från Google och IBM. Vi jämförde CNTK med fyra populära verktygssatser. Vi fokuserar på att jämföra den råa beräkningseffektiviteten för olika verktygssatser med hjälp av simulerad data med en effektiv minibatchstorlek (8192) för att fullt ut kunna utnyttja alla GPU:er. Med ett fullt anslutet 4-lagers neuralt nätverk (se vår benchmark-skript), antalet bildrutor varje verktygslåda kan bearbeta per sekund illustreras i diagrammet. Vi inkluderar två konfigurationer på en enda Linux-maskin med 1 respektive 4 GPU:er (Nvidia K40). Vi rapporterar också vår 8-GPU CNTK-hastighet på Azure GPU Lab med 2 identiska Linux-maskiner (2 x 4 GPU: er) som används i baslinjen. CNTK jämför fördelaktigt i beräkningseffektivitet för distribuerad djupinlärning (4 GPU eller 8 GPU) på alla dessa verktygssatser vi testade. CNTK kan enkelt skala bortom 8 GPU:er över flera maskiner med överlägsen distribuerad systemprestanda.