Secondo quanto riferito, il modello linguistico AI di Amazon Olympus ha parametri più grandi rispetto a GPT-4

Icona del tempo di lettura 2 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Amazon sta entrando nella corsa all’intelligenza artificiale contro OpenAI e Google. Lo hanno riferito fonti vicine alla vicenda Reuters che il colosso della tecnologia ha stanziato milioni di dollari per costruire un nuovo modello linguistico chiamato Olympus.

A prima vista, l'Olympus potrebbe essere il modello più grande mai addestrato nella storia finora. L'ultimo GPT-4 di OpenAI, ad esempio, ha un trilione di parametri. L'ambizioso piano di Amazon raddoppia i parametri portandoli a 2 trilioni. Google Bard, invece, ne ha 137 miliardi.

Un parametro è un numero che agisce come una manopola di sintonizzazione per un modello linguistico AI. Queste manopole vengono impostate durante l'addestramento utilizzando i dati e la loro regolazione può far funzionare meglio il modello per attività specifiche. Più sono, meglio è.

Il rapporto afferma che l’ex capo di Alexa Rohid Prasad ha riunito i ricercatori di Alexa AI e il team scientifico di Amazon per guidare il progetto. Non si sa ancora esattamente quando verrà rilasciato il modello linguistico.

Potresti anche ricordarlo qualche mese fa, Amazon ha speso oltre 4 miliardi di dollari in investimenti per la startup di modelli di intelligenza artificiale Anthropic e altri 300 milioni di dollari per Anthropic lo scorso anno. 

La fonte ha inoltre affermato alla pubblicazione che il modello renderà la sua piattaforma di cloud computing, AWS, più attraente per i clienti aziendali che richiedono l'accesso agli strumenti di intelligenza artificiale più all'avanguardia.