Microsofts Computational Network Toolkit slår Google TensorFlow i den distribuerade djupinlärningsprestanda

Lästid ikon 2 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

CNTK-diagram

Förra året avslöjade Microsoft Research Computational Network Toolkit (CNTK), ett enhetligt ramverk för beräkningsnätverk som beskriver djupa neurala nätverk som en serie beräkningssteg via en riktad graf. Med kombinationen av CNTK och Microsofts Azure GPU Lab har Microsoft en distribuerad GPU-plattform som communityn kan använda för att främja AI-forskning. Sedan lanseringen av CNTK förra året har MSR-teamet förbättrat maskininlärningseffektiviteten avsevärt med Azure GPU Lab. Faktum är att CNTK nu erbjuder den mest effektiva distribuerade beräkningsprestanda som slår Googles TensorFlow och andra.

För uppdragskritisk AI-forskning anser vi att effektivitet och prestanda bör vara ett av de viktigaste designkriterierna. Det finns ett antal verktyg för djupinlärning tillgängliga från Ficklampa, Theano och caffe till de nyligen öppna verktygssatserna från Google och IBM. Vi jämförde CNTK med fyra populära verktygssatser. Vi fokuserar på att jämföra den råa beräkningseffektiviteten för olika verktygssatser med hjälp av simulerad data med en effektiv minibatchstorlek (8192) för att fullt ut kunna utnyttja alla GPU:er. Med ett fullt anslutet 4-lagers neuralt nätverk (se vår benchmark-skript), antalet bildrutor varje verktygslåda kan bearbeta per sekund illustreras i diagrammet. Vi inkluderar två konfigurationer på en enda Linux-maskin med 1 respektive 4 GPU:er (Nvidia K40). Vi rapporterar också vår 8-GPU CNTK-hastighet på Azure GPU Lab med 2 identiska Linux-maskiner (2 x 4 GPU: er) som används i baslinjen. CNTK jämför fördelaktigt i beräkningseffektivitet för distribuerad djupinlärning (4 GPU eller 8 GPU) på alla dessa verktygssatser vi testade. CNTK kan enkelt skala bortom 8 GPU:er över flera maskiner med överlägsen distribuerad systemprestanda.

Mer om ämnena: CNTK, Computational Network Toolkit, Deep Learning, google, maskininlärning, microsoft, forskning, TensorFlow

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *