Microsoft anuncia Phi-3-vision, um novo SLM multimodal para cenários de IA no dispositivo
1 minutos. ler
Atualizado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
Notas chave
- Phi-3-vision é um modelo de parâmetros de 4.2B que suporta tarefas gerais de raciocínio visual e raciocínio de gráfico/tabela
Na Build 2024, a Microsoft hoje expandido sua família Phi-3 de modelos de linguagem pequena de IA com a nova visão Phi-3. Phi-3-vision é um modelo de parâmetros de 4.2B que suporta tarefas gerais de raciocínio visual e raciocínio de gráfico/tabela. O modelo pode receber imagens e texto como entrada e gerar respostas de texto.
A Microsoft também anunciou hoje a disponibilidade geral do Phi-3-mini na oferta de modelos como serviço (MaaS) do Azure AI. Modelos Phi-3 estão ganhando impulso, pois são econômicos e otimizados para cenários de IA no dispositivo, na borda, off-line e com latência limitada.
Além das novidades sobre os modelos Phi-3, a Microsoft anunciou novos recursos em APIs para permitir experiências multimodais. O Azure AI Speech agora possui análise de fala e tradução universal. O Azure AI Search agora vem com armazenamento significativamente maior e aumento de até 12X no tamanho do índice vetorial sem custo adicional para permitir grandes cargas de trabalho RAG em escala.
Fórum de usuários
Mensagens 0