Microsoft ogłasza Phi-3-vision, nowy multimodalny SLM do scenariuszy AI na urządzeniach
1 minuta. czytać
Zaktualizowano na
Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej
Kluczowe uwagi
- Phi-3-vision to model parametrów 4.2B, który obsługuje ogólne zadania polegające na wnioskowaniu wizualnym oraz na wykresach/wykresach/tabelach
Na Build 2024 Microsoft dzisiaj rozszerzony rodzinę małych modeli językowych AI Phi-3 z nową wizją Phi-3. Phi-3-vision to model parametrów 4.2B, który obsługuje ogólne zadania polegające na wnioskowaniu wizualnym oraz na wykresach/wykresach/tabelach. Model może przyjmować zarówno obrazy, jak i tekst jako dane wejściowe oraz wyjściowe odpowiedzi tekstowe.
Firma Microsoft ogłosiła dziś także ogólną dostępność Phi-3-mini w ofercie modeli jako usługi (MaaS) platformy Azure AI. Modele Phi-3 zyskują na popularności, ponieważ są opłacalne i zoptymalizowane pod kątem scenariuszy AI związanych z urządzeniami, urządzeniami brzegowymi, offline i sztuczną inteligencją ograniczonych opóźnieniami.
Oprócz wiadomości na temat modeli Phi-3 firma Microsoft ogłosiła nowe funkcje w interfejsach API, aby umożliwić korzystanie z rozwiązań multimodalnych. Usługa Azure AI Speech ma teraz analizę mowy i uniwersalne tłumaczenie. Usługa Azure AI Search oferuje teraz znacznie większą ilość miejsca na dane i nawet 12-krotny wzrost rozmiaru indeksu wektorowego bez dodatkowych kosztów, co pozwala na obsługę dużych obciążeń RAG na dużą skalę.
Forum użytkowników
Wiadomości 0