Motor de inferencia de alto rendimiento de código abierto de Microsoft para modelos de aprendizaje automático

Icono de tiempo de lectura 1 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Microsoft anunció ayer que es de código abierto ONNX Runtime, un motor de inferencia de alto rendimiento para modelos de aprendizaje automático en formato ONNX en Linux, Windows y Mac. ONNX Runtime permite a los desarrolladores entrenar y ajustar modelos en cualquier marco compatible y producir estos modelos con alto rendimiento tanto en la nube como en el perímetro. Microsoft está usando ONNX Runtime internamente para Bing Search, Bing Ads, servicios de productividad de Office y más.

ONNX brinda interoperabilidad al ecosistema del marco de IA al proporcionar una definición de un modelo gráfico de computación extensible, así como definiciones de operadores integrados y tipos de datos estándar. ONNX permite que los modelos se entrenen en un marco y se transfieran a otro para la inferencia. Los modelos ONNX actualmente son compatibles con Caffe2, Cognitive Toolkit y PyTorch.

Consulte el tiempo de ejecución de Open Neural Network Exchange (ONNX) en GitHub aquí.

Fuente: Microsoft

Más sobre los temas: microsoft, ONNX, Intercambio de redes neuronales abiertas, De código abierto

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *