Microsoft kunngjør Phi-3-vision, en ny multimodal SLM for AI-scenarier på enheten
1 min. lese
Oppdatert på
Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer
Viktige merknader
- Phi-3-vision er en 4.2B parametermodell som støtter generelle visuelle resonnementoppgaver og diagram/graf/tabell resonnement
På Build 2024, Microsoft i dag utvidet Phi-3-familien av små AI-modeller med den nye Phi-3-visionen. Phi-3-vision er en 4.2B parametermodell som støtter generelle visuelle resonneringsoppgaver og diagram/graf/tabell resonnement. Modellen kan ta både bilder og tekst som input, og sende ut tekstsvar.
Microsoft kunngjorde i dag også den generelle tilgjengeligheten av Phi-3-mini i Azure AIs Models-as-a Service (MaaS)-tilbud. Phi-3-modeller får fart siden de er kostnadseffektive og optimalisert for AI-scenarier på enheten, edge, offline-slutninger og latensbundet AI.
I tillegg til nyhetene om Phi-3-modeller, kunngjorde Microsoft nye funksjoner på tvers av APIer for å muliggjøre multimodale opplevelser. Azure AI Speech har nå taleanalyse og universell oversettelse. Azure AI Search kommer nå med betydelig økt lagring og opptil 12X økning i vektorindeksstørrelse uten ekstra kostnad for å muliggjøre store RAG-arbeidsbelastninger i stor skala.
Brukerforum
0 meldinger