Mecanismo de inferência de alto desempenho de código aberto da Microsoft para modelos de aprendizado de máquina
1 minutos. ler
Publicado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
A Microsoft anunciou ontem que está abrindo o código do ONNX Runtime, um mecanismo de inferência de alto desempenho para modelos de aprendizado de máquina no formato ONNX no Linux, Windows e Mac. O ONNX Runtime permite que os desenvolvedores treinem e ajustem modelos em qualquer estrutura compatível e produzam esses modelos com alto desempenho na nuvem e na borda. A Microsoft está usando o ONNX Runtime internamente para Bing Search, Bing Ads, serviços de produtividade do Office e muito mais.
O ONNX traz interoperabilidade para o ecossistema da estrutura de IA, fornecendo uma definição de um modelo de gráfico de computação extensível, bem como definições de operadores integrados e tipos de dados padrão. O ONNX permite que os modelos sejam treinados em uma estrutura e transferidos para outra para inferência. Os modelos ONNX são atualmente suportados no Caffe2, Cognitive Toolkit e PyTorch.
Confira o Runtime Open Neural Network Exchange (ONNX) em GitHub aqui.
Fonte: Microsoft
Fórum de usuários
Mensagens 0