Microsoft ogłasza Phi-3-vision, nowy multimodalny SLM do scenariuszy AI na urządzeniach

Ikona czasu czytania 1 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Kluczowe uwagi

  • Phi-3-vision to model parametrów 4.2B, który obsługuje ogólne zadania polegające na wnioskowaniu wizualnym oraz na wykresach/wykresach/tabelach

Na Build 2024 Microsoft dzisiaj rozszerzony rodzinę małych modeli językowych AI Phi-3 z nową wizją Phi-3. Phi-3-vision to model parametrów 4.2B, który obsługuje ogólne zadania polegające na wnioskowaniu wizualnym oraz na wykresach/wykresach/tabelach. Model może przyjmować zarówno obrazy, jak i tekst jako dane wejściowe oraz wyjściowe odpowiedzi tekstowe.

Firma Microsoft ogłosiła dziś także ogólną dostępność Phi-3-mini w ofercie modeli jako usługi (MaaS) platformy Azure AI. Modele Phi-3 zyskują na popularności, ponieważ są opłacalne i zoptymalizowane pod kątem scenariuszy AI związanych z urządzeniami, urządzeniami brzegowymi, offline i sztuczną inteligencją ograniczonych opóźnieniami.

Oprócz wiadomości na temat modeli Phi-3 firma Microsoft ogłosiła nowe funkcje w interfejsach API, aby umożliwić korzystanie z rozwiązań multimodalnych. Usługa Azure AI Speech ma teraz analizę mowy i uniwersalne tłumaczenie. Usługa Azure AI Search oferuje teraz znacznie większą ilość miejsca na dane i nawet 12-krotny wzrost rozmiaru indeksu wektorowego bez dodatkowych kosztów, co pozwala na obsługę dużych obciążeń RAG na dużą skalę.

Forum użytkowników

Wiadomości 0