Microsoft kunngjør Phi-3-vision, en ny multimodal SLM for AI-scenarier på enheten

Ikon for lesetid 1 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Viktige merknader

  • Phi-3-vision er en 4.2B parametermodell som støtter generelle visuelle resonnementoppgaver og diagram/graf/tabell resonnement

På Build 2024, Microsoft i dag utvidet Phi-3-familien av små AI-modeller med den nye Phi-3-visionen. Phi-3-vision er en 4.2B parametermodell som støtter generelle visuelle resonneringsoppgaver og diagram/graf/tabell resonnement. Modellen kan ta både bilder og tekst som input, og sende ut tekstsvar.

Microsoft kunngjorde i dag også den generelle tilgjengeligheten av Phi-3-mini i Azure AIs Models-as-a Service (MaaS)-tilbud. Phi-3-modeller får fart siden de er kostnadseffektive og optimalisert for AI-scenarier på enheten, edge, offline-slutninger og latensbundet AI.

I tillegg til nyhetene om Phi-3-modeller, kunngjorde Microsoft nye funksjoner på tvers av APIer for å muliggjøre multimodale opplevelser. Azure AI Speech har nå taleanalyse og universell oversettelse. Azure AI Search kommer nå med betydelig økt lagring og opptil 12X økning i vektorindeksstørrelse uten ekstra kostnad for å muliggjøre store RAG-arbeidsbelastninger i stor skala.

Brukerforum

0 meldinger