Microsoft anuncia Phi-3-vision, um novo SLM multimodal para cenários de IA no dispositivo

Ícone de tempo de leitura 1 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Notas chave

  • Phi-3-vision é um modelo de parâmetros de 4.2B que suporta tarefas gerais de raciocínio visual e raciocínio de gráfico/tabela

Na Build 2024, a Microsoft hoje expandido sua família Phi-3 de modelos de linguagem pequena de IA com a nova visão Phi-3. Phi-3-vision é um modelo de parâmetros de 4.2B que suporta tarefas gerais de raciocínio visual e raciocínio de gráfico/tabela. O modelo pode receber imagens e texto como entrada e gerar respostas de texto.

A Microsoft também anunciou hoje a disponibilidade geral do Phi-3-mini na oferta de modelos como serviço (MaaS) do Azure AI. Modelos Phi-3 estão ganhando impulso, pois são econômicos e otimizados para cenários de IA no dispositivo, na borda, off-line e com latência limitada.

Além das novidades sobre os modelos Phi-3, a Microsoft anunciou novos recursos em APIs para permitir experiências multimodais. O Azure AI Speech agora possui análise de fala e tradução universal. O Azure AI Search agora vem com armazenamento significativamente maior e aumento de até 12X no tamanho do índice vetorial sem custo adicional para permitir grandes cargas de trabalho RAG em escala.

Fórum de usuários

Mensagens 0