El CEO de AWS ataca la estrategia de inteligencia artificial de Azure de Microsoft
3 minuto. leer
Publicado el
Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Más información
Amazon Web Services, el proveedor dominante de computación en la nube, ha estado perdiendo terreno frente a sus rivales Microsoft y Google en el campo de rápido crecimiento de la inteligencia artificial generativa. El director ejecutivo de AWS, Adam Selipsky, intentó restar importancia a la competencia y atacó la estrecha asociación de Microsoft con OpenAI, una organización líder en investigación de IA, durante la conferencia anual Reinvent de la compañía.
La IA generativa es una rama de la inteligencia artificial que utiliza modelos de lenguaje a gran escala (LLM) para crear contenido nuevo como texto, imágenes, audio y video. La tecnología ha avanzado rápidamente en los últimos años, con avances como GPT-3 y GPT-4 de OpenAI, PaLM y PaML-2 de Google y LLaMA de Meta. Estos modelos pueden generar textos realistas y coherentes sobre diversos temas, responder preguntas, escribir códigos e incluso componer canciones.
Microsoft, que invirtió mil millones de dólares en OpenAI en 1, tiene acceso exclusivo a Los modelos de OpenAI y los ofrece a sus clientes de la nube Azure. Google, que desarrolló internamente sus propios modelos de última generación, también los pone a disposición a través de su plataforma Google Cloud. Mientras tanto, AWS, que entró en el mercado de la IA generativa más tarde que sus competidores, se ha asociado con Anthropic, una startup de IA, para proporcionar su modelo Claude2 en AWS. AWS también anunció su propia serie de modelos Titan, que no son tan avanzados como los modelos ofrecidos por Microsoft y Google.
Selipsky, quien asumió el cargo de director ejecutivo de AWS en marzo, intentó presentar a AWS como la mejor opción para los clientes que desean utilizar IA generativa en sus negocios. Afirmó que AWS ofrece más variedad y flexibilidad que otros proveedores de nube y criticó a Microsoft por estar "en deuda principalmente con un proveedor modelo". También dijo que habló con al menos 10 CIO de Fortune 500 que prohibieron ChatGPT, un popular servicio de chatbot impulsado por modelos de OpenAI, en sus empresas debido a preocupaciones de privacidad y seguridad.
Sin embargo, Selipsky argumentos no son del todo exactos ni justos. En primer lugar, Microsoft no sólo depende de los modelos de OpenAI, sino que también ofrece una número de modelos diferentes de otras fuentes, como Falcon, Stable Diffusion, LLaMA 2, Cohere, Jais, Mistral y NVIDIA Nemotran. Esto es similar a cómo Amazon depende de Anthropic y de modelos de otros lugares. En segundo lugar, ChatGPT tiene un producto empresarial independiente, llamado ChatGPT Enterprise, que no utiliza datos de usuario para formación y cumple con las normas de protección de datos. En tercer lugar, Selipsky mencionó que muchos otros proveedores de la nube “todavía están hablando” de sus propios chips de IA. Ignoró el hecho de que Google ha estado utilizando sus propios chips de IA personalizados, llamados Unidades de Procesamiento Tensoriales (TPU), desde 2016. Los chips TPU de Google están diseñados para acelerar el entrenamiento y la inferencia de modelos a gran escala.
AWS, que todavía posee la mayor participación del mercado de computación en la nube, enfrenta una presión cada vez mayor por parte de Microsoft y Google, que están creciendo más rápido y ganando más clientes. La IA generativa es una de las áreas clave en las que los proveedores de la nube compiten para ofrecer las mejores y más innovadoras soluciones. Tener los mejores modelos de IA de última generación es importante en las soluciones de IA generativa, ya que puede permitir nuevas posibilidades, mejorar el rendimiento y aumentar la satisfacción del usuario. Es posible que AWS tenga que hacer algo más que atacar a sus rivales para mantener su posición de liderazgo en la nube.
Foro de usuarios
mensajes de 1