Microsoft werkt samen met Intel om geoptimaliseerde deep learning-frameworks naar Azure te brengen

Pictogram voor leestijd 1 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Over het algemeen zijn standaard builds van populaire deep learning-frameworks zoals TensorFlow niet volledig geoptimaliseerd voor training en inferentie op CPU. Om dit probleem op te lossen, heeft Intel open-source framework-optimalisaties voor Intel Xeon-processors. Microsoft heeft onlangs een samenwerking aangekondigd met Intel om geoptimaliseerde deep learning-frameworks naar Azure te brengen. Deze optimalisaties zijn beschikbaar op de Azure Marketplace onder de naam Intel Optimized Data Science VM for Linux (Ubuntu).

Deze optimalisaties maken gebruik van de Intel Advanced Vector Extensions 512 (Intel AVX-512) en Intel Math Kernel Library for Deep Neural Networks (Intel MKL-DNN) om training en inferentie op Intel Xeon-processors te versnellen. Bij uitvoering op een Azure F72s_v2 VM-instantie leverden deze optimalisaties een gemiddelde snelheid van 7.7 keer sneller op in de trainingsdoorvoer voor alle standaard CNN-topologieën.

U vindt Intel Optimized Data Science VM-instantie op Azure hier.

Bron: Microsoft

Meer over de onderwerpen: Azure Marktplaats, Kaders voor diep leren, intel, Intel Optimized Data Science VM voor Linux, microsoft