O Microsoft Azure expande a disponibilidade dos modelos OpenAI GPT-4 e GPT-35-Turbo para mais regiões
2 minutos. ler
Publicado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
Microsoft ontem anunciou a disponibilidade expandida do serviço Azure OpenAI. Com essa expansão, os clientes no leste da Austrália, leste do Canadá, leste dos Estados Unidos 2, leste do Japão e sul do Reino Unido poderão acessar os populares modelos OpenAI GPT-4 e GPT-35-Turbo. Antes dessa expansão, o Azure OpenAI Service estava disponível no leste dos Estados Unidos, na região central da França, no centro-sul dos Estados Unidos e na Europa Ocidental. Durante a recente chamada de ganhos, a Microsoft anunciou que o Azure OpenAI Service está atendendo a mais de 11,000 clientes, atraindo uma média de 100 novos clientes diariamente.
Hoje, a Microsoft também anunciou a disponibilidade geral da série Azure ND H100 v5 Virtual Machine (VM), apresentando as mais recentes GPUs NVIDIA H100 Tensor Core e rede NVIDIA Quantum-2 InfiniBand. Esta nova série de VMs foi projetada especificamente para cargas de trabalho de IA e agora está disponível nas regiões do Azure do leste dos Estados Unidos e centro-sul dos Estados Unidos. Embora as VMs estejam geralmente disponíveis, os clientes devem registrar seu interesse em acessar as novas VMs.
As VMs ND H100 v5 incluem os seguintes recursos:
- Equipadas com oito GPUs NVIDIA H100 Tensor Core, essas VMs prometem desempenho de modelo de IA significativamente mais rápido do que as gerações anteriores.
- Os processadores escaláveis Intel Xeon de 4ª geração como a base dessas VMs, garantindo velocidade de processamento ideal.
- NVIDIA Quantum-2 ConnectX-7 InfiniBand com 400 Gb/s por GPU com 3.2 Tb/s por VM de largura de banda cross-node garante desempenho perfeito nas GPUs, combinando os recursos dos supercomputadores de melhor desempenho globalmente.
- Com o PCIe Gen5 fornecendo largura de banda de 64 GB/s por GPU, o Azure obtém vantagens significativas de desempenho entre CPU e GPU.
- A memória DDR5 está no centro dessas VMs, oferecendo maior velocidade e eficiência de transferência de dados, tornando-as ideais para cargas de trabalho com conjuntos de dados maiores.
- Com até seis vezes mais velocidade nas operações de multiplicação de matrizes ao usar o novo tipo de dados de ponto flutuante FP8 de 8 bits em comparação com o FP16 nas gerações anteriores.
- Com até duas vezes mais velocidade em modelos de linguagem grandes, como a inferência de modelo de ponta a ponta do BLOOM 175B, demonstrando seu potencial para otimizar ainda mais os aplicativos de IA.