Motor de inferencia de alto rendimiento de código abierto de Microsoft para modelos de aprendizaje automático
1 minuto. leer
Publicado el
Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Más información
Microsoft anunció ayer que es de código abierto ONNX Runtime, un motor de inferencia de alto rendimiento para modelos de aprendizaje automático en formato ONNX en Linux, Windows y Mac. ONNX Runtime permite a los desarrolladores entrenar y ajustar modelos en cualquier marco compatible y producir estos modelos con alto rendimiento tanto en la nube como en el perímetro. Microsoft está usando ONNX Runtime internamente para Bing Search, Bing Ads, servicios de productividad de Office y más.
ONNX brinda interoperabilidad al ecosistema del marco de IA al proporcionar una definición de un modelo gráfico de computación extensible, así como definiciones de operadores integrados y tipos de datos estándar. ONNX permite que los modelos se entrenen en un marco y se transfieran a otro para la inferencia. Los modelos ONNX actualmente son compatibles con Caffe2, Cognitive Toolkit y PyTorch.
Consulte el tiempo de ejecución de Open Neural Network Exchange (ONNX) en GitHub aquí.
Fuente: Microsoft
Foro de usuarios
mensajes de 0