Microsoft werkt samen met Intel om geoptimaliseerde deep learning-frameworks naar Azure te brengen
1 minuut. lezen
Uitgegeven op
Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer
Over het algemeen zijn standaard builds van populaire deep learning-frameworks zoals TensorFlow niet volledig geoptimaliseerd voor training en inferentie op CPU. Om dit probleem op te lossen, heeft Intel open-source framework-optimalisaties voor Intel Xeon-processors. Microsoft heeft onlangs een samenwerking aangekondigd met Intel om geoptimaliseerde deep learning-frameworks naar Azure te brengen. Deze optimalisaties zijn beschikbaar op de Azure Marketplace onder de naam Intel Optimized Data Science VM for Linux (Ubuntu).
Deze optimalisaties maken gebruik van de Intel Advanced Vector Extensions 512 (Intel AVX-512) en Intel Math Kernel Library for Deep Neural Networks (Intel MKL-DNN) om training en inferentie op Intel Xeon-processors te versnellen. Bij uitvoering op een Azure F72s_v2 VM-instantie leverden deze optimalisaties een gemiddelde snelheid van 7.7 keer sneller op in de trainingsdoorvoer voor alle standaard CNN-topologieën.
U vindt Intel Optimized Data Science VM-instantie op Azure hier.
Bron: Microsoft