Microsofts Computational Network Toolkit slår Google TensorFlow i den distribuerede dybe læringsydelse

Ikon for læsetid 2 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

CNTK-diagram

Sidste år afslørede Microsoft Research Computational Network Toolkit (CNTK), en forenet beregningsnetværksramme, der beskriver dybe neurale netværk som en række beregningsmæssige trin via en rettet graf. Med kombinationen af ​​CNTK og Microsofts Azure GPU Lab har Microsoft en distribueret GPU-platform, som fællesskabet kan bruge til at fremme AI-forskning. Siden lanceringen af ​​CNTK sidste år har MSR-teamet forbedret maskinlæringseffektiviteten markant med Azure GPU Lab. Faktisk tilbyder CNTK nu den mest effektive distribuerede beregningsydelse, der slår Googles TensorFlow og andre.

For missionskritisk AI-forskning mener vi, at effektivitet og ydeevne bør være et af de vigtigste designkriterier. Der er en række deep learning-værktøjssæt tilgængelige fra Torch, Theano , Caffe til de nyligt åbne værktøjssæt fra Google , IBM. Vi sammenlignede CNTK med fire populære værktøjssæt. Vi fokuserer på at sammenligne den rå beregningseffektivitet af forskellige værktøjssæt ved hjælp af simulerede data med en effektiv mini-batchstørrelse (8192) for fuldt ud at udnytte alle GPU'er. Med et fuldt tilsluttet 4-lags neuralt netværk (se vores benchmark scripts), er antallet af frames, hvert værktøjssæt kan behandle pr. sekund, illustreret i diagrammet. Vi inkluderer to konfigurationer på en enkelt Linux-maskine med henholdsvis 1 og 4 GPU'er (Nvidia K40). Vi rapporterer også vores 8-GPU CNTK-hastighed på Azure GPU Lab med 2 identiske Linux-maskiner (2 x 4 GPU'er) som brugt i baseline benchmark. CNTK sammenligner sig positivt med hensyn til beregningseffektivitet for distribueret dyb læring (4 GPU'er eller 8 GPU'er) på alle disse værktøjssæt, vi testede. CNTK kan nemt skalere ud over 8 GPU'er på tværs af flere maskiner med overlegen distribueret systemydelse.

Mere om emnerne: CNTK, Computational Network Toolkit, Deep Learning, Google, machine learning, microsoft, forskning, TensorFlow

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *