Microsoft annuncia Phi-3-vision, un nuovo SLM multimodale per scenari di intelligenza artificiale su dispositivo

Icona del tempo di lettura 1 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Note chiave

  • Phi-3-vision è un modello di parametri 4.2B che supporta attività generali di ragionamento visivo e ragionamento con grafici/grafici/tabelle

Alla Build 2024, Microsoft oggi ampliato la sua famiglia Phi-3 di modelli AI Small Language con la nuova visione Phi-3. Phi-3-vision è un modello di parametri 4.2B che supporta attività generali di ragionamento visivo e ragionamento con grafici/grafici/tabelle. Il modello può accettare sia immagini che testo come input e restituire risposte di testo.

Microsoft ha inoltre annunciato oggi la disponibilità generale di Phi-3-mini nell'offerta Models-as-a Service (MaaS) di Azure AI. Modelli Phi-3 stanno guadagnando slancio poiché sono convenienti e ottimizzati per scenari di intelligenza artificiale su dispositivo, edge, inferenza offline e intelligenza artificiale vincolata alla latenza.

Oltre alle novità sui modelli Phi-3, Microsoft ha annunciato nuove funzionalità attraverso le API per consentire esperienze multimodali. Il parlato di Azure AI ora dispone di analisi vocale e traduzione universale. Azure AI Search ora include uno spazio di archiviazione significativamente maggiore e un aumento fino a 12 volte delle dimensioni dell'indice vettoriale senza costi aggiuntivi per abilitare carichi di lavoro RAG di grandi dimensioni su larga scala.

Forum degli utenti

0 messaggi