Microsoft annuncia Phi-3-vision, un nuovo SLM multimodale per scenari di intelligenza artificiale su dispositivo
1 minuto. leggere
Aggiornato su
Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più
Note chiave
- Phi-3-vision è un modello di parametri 4.2B che supporta attività generali di ragionamento visivo e ragionamento con grafici/grafici/tabelle
Alla Build 2024, Microsoft oggi ampliato la sua famiglia Phi-3 di modelli AI Small Language con la nuova visione Phi-3. Phi-3-vision è un modello di parametri 4.2B che supporta attività generali di ragionamento visivo e ragionamento con grafici/grafici/tabelle. Il modello può accettare sia immagini che testo come input e restituire risposte di testo.
Microsoft ha inoltre annunciato oggi la disponibilità generale di Phi-3-mini nell'offerta Models-as-a Service (MaaS) di Azure AI. Modelli Phi-3 stanno guadagnando slancio poiché sono convenienti e ottimizzati per scenari di intelligenza artificiale su dispositivo, edge, inferenza offline e intelligenza artificiale vincolata alla latenza.
Oltre alle novità sui modelli Phi-3, Microsoft ha annunciato nuove funzionalità attraverso le API per consentire esperienze multimodali. Il parlato di Azure AI ora dispone di analisi vocale e traduzione universale. Azure AI Search ora include uno spazio di archiviazione significativamente maggiore e un aumento fino a 12 volte delle dimensioni dell'indice vettoriale senza costi aggiuntivi per abilitare carichi di lavoro RAG di grandi dimensioni su larga scala.
Forum degli utenti
0 messaggi