Microsofts Computational Network Toolkit slår Google TensorFlow i den distribuerede dybe læringsydelse
2 min. Læs
Udgivet den
Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere
Sidste år afslørede Microsoft Research Computational Network Toolkit (CNTK), en forenet beregningsnetværksramme, der beskriver dybe neurale netværk som en række beregningsmæssige trin via en rettet graf. Med kombinationen af CNTK og Microsofts Azure GPU Lab har Microsoft en distribueret GPU-platform, som fællesskabet kan bruge til at fremme AI-forskning. Siden lanceringen af CNTK sidste år har MSR-teamet forbedret maskinlæringseffektiviteten markant med Azure GPU Lab. Faktisk tilbyder CNTK nu den mest effektive distribuerede beregningsydelse, der slår Googles TensorFlow og andre.
For missionskritisk AI-forskning mener vi, at effektivitet og ydeevne bør være et af de vigtigste designkriterier. Der er en række deep learning-værktøjssæt tilgængelige fra Torch, Theano , Caffe til de nyligt åbne værktøjssæt fra Google , IBM. Vi sammenlignede CNTK med fire populære værktøjssæt. Vi fokuserer på at sammenligne den rå beregningseffektivitet af forskellige værktøjssæt ved hjælp af simulerede data med en effektiv mini-batchstørrelse (8192) for fuldt ud at udnytte alle GPU'er. Med et fuldt tilsluttet 4-lags neuralt netværk (se vores benchmark scripts), er antallet af frames, hvert værktøjssæt kan behandle pr. sekund, illustreret i diagrammet. Vi inkluderer to konfigurationer på en enkelt Linux-maskine med henholdsvis 1 og 4 GPU'er (Nvidia K40). Vi rapporterer også vores 8-GPU CNTK-hastighed på Azure GPU Lab med 2 identiske Linux-maskiner (2 x 4 GPU'er) som brugt i baseline benchmark. CNTK sammenligner sig positivt med hensyn til beregningseffektivitet for distribueret dyb læring (4 GPU'er eller 8 GPU'er) på alle disse værktøjssæt, vi testede. CNTK kan nemt skalere ud over 8 GPU'er på tværs af flere maskiner med overlegen distribueret systemydelse.