Amazon Olympus AI-språkmodell har angivelig større parametere sammenlignet med GPT-4
2 min. lese
Publisert på
Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer
Amazon deltar i AI-kappløpet mot OpenAI og Google. Det fortalte kilder som er kjent med saken Reuters at teknologigiganten har bevilget millioner av dollar til å bygge en ny språkmodell kalt Olympus.
Sett fra utseendet kan Olympus være den største modellen som er trent i historien så langt. Den nyeste GPT-4 fra OpenAI har for eksempel én billion parametere. Amazons ambisiøse plan dobler parameterne til 2 billioner. Google Bard har derimot 137 milliarder.
En parameter er et tall som fungerer som en innstillingsknapp for en AI-språkmodell. Disse knottene stilles inn under trening ved hjelp av data, og justering av dem kan få modellen til å fungere bedre for spesifikke oppgaver. Jo mer jo bedre.
Rapporten sier at tidligere Alexa-sjef Rohid Prasad har samlet forskere fra Alexa AI og Amazons vitenskapsteam for å lede prosjektet. Ingen ord om nøyaktig når språkmodellen vil bli utgitt ennå.
Du husker kanskje også det for noen måneder siden, Amazon spilte ut over 4 milliarder dollar i investering for AI-modelloppstart Anthropic og ytterligere 300 millioner dollar for Anthropic i fjor.
Kilden fortalte også publikasjonen at modellen vil gjøre sin cloud computing-plattform, AWS, mer attraktiv for bedriftskunder som krever tilgang til de mest banebrytende AI-verktøyene.