AWS VD attackerar Microsofts Azure AI-strategi

Lästid ikon 3 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

AWS VD Microsoft Jibe

Amazon Web Services, den dominerande cloud computing-leverantören, har tappat mark till konkurrenterna Microsoft och Google inom det snabbt växande området generativ artificiell intelligens. AWS VD Adam Selipsky försökte tona ned konkurrensen och tog ett svep på Microsofts nära samarbete med OpenAI, en ledande AI-forskningsorganisation, under företagets årliga Reinvent-konferens.

Generativ AI är en gren av artificiell intelligens som använder storskaliga språkmodeller (LLM) för att skapa nytt innehåll som text, bilder, ljud och video. Tekniken har utvecklats snabbt de senaste åren, med genombrott som OpenAI:s GPT-3 och GPT-4, Googles PaLM och PaML-2 och Metas LLaMA. Dessa modeller kan generera realistiska och sammanhängande texter om olika ämnen, svara på frågor, skriva kod och till och med komponera låtar.

Microsoft, som investerade 1 miljard dollar i OpenAI 2019, har exklusiv tillgång till OpenAI:s modeller och erbjuder dem till sina Azure-molnkunder. Google, som utvecklat sina egna toppmoderna modeller internt, gör dem också tillgängliga via sin Google Cloud-plattform. Samtidigt har AWS, som kom in på den generativa AI-marknaden senare än sina konkurrenter, samarbetat med Anthropic, en AI-startup, för att tillhandahålla sin Claude2-modell på AWS. AWS tillkännagav också sin egen Titan-serie av modeller, som inte är lika avancerade som modellerna som erbjuds av Microsoft och Google.

Selipsky, som tillträdde som AWS VD i mars, försökte framställa AWS som det bästa valet för kunder som vill använda generativ AI i sina verksamheter. Han hävdade att AWS ger mer variation och flexibilitet än andra molnleverantörer, och kritiserade Microsoft för att "i första hand ses av en modellleverantör". Han sa också att han pratade med minst 10 Fortune 500 CIO:er som förbjöd ChatGPT, en populär chatbottjänst som drivs av OpenAIs modeller, från sina företag på grund av integritets- och säkerhetsproblem.

Däremot Selipskys argument inte är helt korrekta eller rättvisa. För det första är Microsoft inte bara beroende av OpenAIs modeller, utan erbjuder också en antal olika modeller från andra källor, såsom Falcon, Stable Diffusion, LLaMA 2, Cohere, Jais, Mistral och NVIDIA Nemotran. Detta liknar hur Amazon är beroende av Anthropic och modeller från andra håll. För det andra har ChatGPT en separat företagsprodukt, kallad ChatGPT Enterprise, som inte använder användardata för utbildning och följer dataskyddsbestämmelserna. För det tredje nämnde Selipsky att många andra molnleverantörer "fortfarande bara pratar" om sina egna AI-chips. Han ignorerade det faktum att Google har använt sina egna skräddarsydda AI-chips, kallade Tensor Processing Units (TPUs), sedan 2016. Googles TPU-chips är designade för att påskynda utbildningen och slutsatsen av storskaliga modeller.

AWS, som fortfarande har den största andelen av cloud computing-marknaden, möter ett ökande tryck från Microsoft och Google, som växer snabbare och får fler kunder. Generativ AI är ett av nyckelområdena där molnleverantörerna tävlar om att erbjuda de bästa och mest innovativa lösningarna. Att ha de bästa toppmoderna AI-modellerna är viktigt i generativa AI-lösningar, eftersom det kan möjliggöra nya möjligheter, förbättra prestanda och förbättra användarnas tillfredsställelse. AWS kan behöva göra mer än att bara attackera sina rivaler för att behålla sin ledarposition i molnet.

Mer om ämnena: AWS, azure, Gen AI, Google Cloud