CEO da AWS ataca a estratégia Azure AI da Microsoft
3 minutos. ler
Publicado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
A Amazon Web Services, fornecedora dominante de computação em nuvem, vem perdendo terreno para os rivais Microsoft e Google no campo de rápido crescimento da inteligência artificial generativa. O CEO da AWS, Adam Selipsky, tentou minimizar a concorrência e criticou a estreita parceria da Microsoft com a OpenAI, uma organização líder em pesquisa de IA, durante a conferência anual Reinvent da empresa.
A IA generativa é um ramo da inteligência artificial que utiliza modelos de linguagem em larga escala (LLMs) para criar novos conteúdos, como texto, imagens, áudio e vídeo. A tecnologia tem avançado rapidamente nos últimos anos, com avanços como GPT-3 e GPT-4 da OpenAI, PaLM e PaML-2 do Google e LLaMA da Meta. Esses modelos podem gerar textos realistas e coerentes sobre diversos temas, responder perguntas, escrever códigos e até compor músicas.
A Microsoft, que investiu US$ 1 bilhão em OpenAI em 2019, tem acesso exclusivo a Modelos da OpenAI e os oferece aos seus clientes da nuvem Azure. O Google, que desenvolveu internamente seus próprios modelos de última geração, também os disponibiliza por meio de sua plataforma Google Cloud. Enquanto isso, a AWS, que entrou no mercado de IA generativa mais tarde que seus concorrentes, fez parceria com a Anthropic, uma startup de IA, para fornecer seu modelo Claude2 na AWS. A AWS também anunciou sua própria série de modelos Titan, que não são tão avançados quanto os modelos oferecidos pela Microsoft e pelo Google.
Selipsky, que assumiu o cargo de CEO da AWS em março, tentou retratar a AWS como a melhor escolha para clientes que desejam usar IA generativa em seus negócios. Ele afirmou que a AWS oferece mais variedade e flexibilidade do que outros provedores de nuvem e criticou a Microsoft por estar “em dívida principalmente com um provedor modelo”. Ele também disse que conversou com pelo menos 10 CIOs da Fortune 500 que baniram o ChatGPT, um popular serviço de chatbot baseado nos modelos da OpenAI, de suas empresas devido a questões de privacidade e segurança.
No entanto, Selipsky argumentos não são totalmente precisos ou justos. Primeiro, a Microsoft não depende apenas dos modelos OpenAI, mas também oferece uma número de modelos diferentes de outras fontes, como Falcon, Stable Diffusion, LLaMA 2, Cohere, Jais, Mistral e NVIDIA Nemotran. Isso é semelhante a como a Amazon depende da Antrópica e de modelos de outros lugares. Em segundo lugar, o ChatGPT possui um produto empresarial separado, denominado ChatGPT Enterprise, que não utiliza dados do usuário para treinamento e cumpre as regulamentações de proteção de dados. Terceiro, Selipsky mencionou que muitos outros provedores de nuvem “ainda estão apenas falando” sobre seus próprios chips de IA. Ele ignorou o fato de que o Google usa seus próprios chips de IA personalizados, chamados Tensor Processing Units (TPUs), desde 2016. Os chips TPU do Google são projetados para acelerar o treinamento e a inferência de modelos em grande escala.
A AWS, que ainda detém a maior fatia do mercado de computação em nuvem, enfrenta uma pressão crescente da Microsoft e do Google, que estão crescendo mais rapidamente e conquistando mais clientes. A IA generativa é uma das principais áreas onde os fornecedores de nuvem competem para oferecer as melhores e mais inovadoras soluções. Ter os melhores modelos de IA de última geração é importante em soluções generativas de IA, pois pode permitir novas possibilidades, melhorar o desempenho e aumentar a satisfação do usuário. A AWS poderá ter de fazer mais do que apenas atacar os seus rivais para manter a sua posição de liderança na nuvem.
Fórum de usuários
Mensagens 1