Motore di inferenza ad alte prestazioni Microsoft open source per modelli di machine learning

Icona del tempo di lettura 1 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Microsoft ha annunciato ieri l'open sourcing di ONNX Runtime, un motore di inferenza ad alte prestazioni per modelli di machine learning nel formato ONNX su Linux, Windows e Mac. ONNX Runtime consente agli sviluppatori di addestrare e ottimizzare i modelli in qualsiasi framework supportato e di produrre questi modelli con prestazioni elevate sia nel cloud che nell'edge. Microsoft utilizza ONNX Runtime internamente per Bing Search, Bing Ads, servizi di produttività di Office e altro ancora.

ONNX offre l'interoperabilità all'ecosistema del framework AI fornendo una definizione di un modello grafico di calcolo estensibile, nonché definizioni di operatori integrati e tipi di dati standard. ONNX consente ai modelli di essere addestrati in un framework e trasferiti a un altro per l'inferenza. I modelli ONNX sono attualmente supportati in Caffe2, Cognitive Toolkit e PyTorch.

Dai un'occhiata al runtime di Open Neural Network Exchange (ONNX) su GitHub qui.

Fonte: Microsoft

Maggiori informazioni sugli argomenti: microsoft, ONNX, Apri scambio di reti neurali, open-source

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *