Microsoft kündigt Phi-3-vision an, ein neues multimodales SLM für KI-Szenarien auf dem Gerät

Symbol für die Lesezeit 1 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Mehr Infos

Wichtige Hinweise

  • Phi-3-vision ist ein 4.2B-Parametermodell, das allgemeine visuelle Denkaufgaben und Diagramm-/Grafik-/Tabellenschlussfolgerungen unterstützt

Bei Build 2024, Microsoft heute ergänzt seine Phi-3-Familie kleiner KI-Sprachmodelle mit der neuen Phi-3-Vision. Phi-3-vision ist ein 4.2B-Parametermodell, das allgemeine visuelle Denkaufgaben und das Denken in Diagrammen/Grafiken/Tabellen unterstützt. Das Modell kann sowohl Bilder als auch Text als Eingabe verwenden und Textantworten ausgeben.

Microsoft gab heute außerdem die allgemeine Verfügbarkeit von Phi-3-mini im Models-as-a-Service (MaaS)-Angebot von Azure AI bekannt. Phi-3-Modelle gewinnen an Bedeutung, da sie kosteneffektiv und für On-Device-, Edge-, Offline-Inferenz- und latenzgebundene KI-Szenarien optimiert sind.

Zusätzlich zu den Neuigkeiten zu Phi-3-Modellen kündigte Microsoft neue API-übergreifende Funktionen an, um multimodale Erlebnisse zu ermöglichen. Azure AI Speech verfügt jetzt über Sprachanalyse und universelle Übersetzung. Azure AI Search verfügt jetzt über deutlich mehr Speicher und eine bis zu 12-fache Vergrößerung der Vektorindexgröße ohne zusätzliche Kosten, um große RAG-Workloads in großem Maßstab zu ermöglichen.

Benutzerforum

0 Nachrichten