Mecanismo de inferência de alto desempenho de código aberto da Microsoft para modelos de aprendizado de máquina

Ícone de tempo de leitura 1 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

A Microsoft anunciou ontem que está abrindo o código do ONNX Runtime, um mecanismo de inferência de alto desempenho para modelos de aprendizado de máquina no formato ONNX no Linux, Windows e Mac. O ONNX Runtime permite que os desenvolvedores treinem e ajustem modelos em qualquer estrutura compatível e produzam esses modelos com alto desempenho na nuvem e na borda. A Microsoft está usando o ONNX Runtime internamente para Bing Search, Bing Ads, serviços de produtividade do Office e muito mais.

O ONNX traz interoperabilidade para o ecossistema da estrutura de IA, fornecendo uma definição de um modelo de gráfico de computação extensível, bem como definições de operadores integrados e tipos de dados padrão. O ONNX permite que os modelos sejam treinados em uma estrutura e transferidos para outra para inferência. Os modelos ONNX são atualmente suportados no Caffe2, Cognitive Toolkit e PyTorch.

Confira o Runtime Open Neural Network Exchange (ONNX) em GitHub aqui.

Fonte: Microsoft

Fórum de usuários

Mensagens 0