O modelo de linguagem Amazon Olympus AI supostamente tem parâmetros maiores em comparação com GPT-4

Ícone de tempo de leitura 2 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

A Amazon está entrando na corrida da IA ​​contra a OpenAI e o Google. Fontes familiarizadas com o assunto disseram Reuters que a gigante da tecnologia alocou milhões de dólares para construir um novo modelo de linguagem chamado Olympus.

Ao que parece, a Olympus pode ser o maior modelo treinado na história até agora. O mais recente GPT-4 da OpenAI, por exemplo, possui um trilhão de parâmetros. O ambicioso plano da Amazon duplica os parâmetros para 2 trilhões. O Google Bard, por outro lado, tem 137 bilhões.

Um parâmetro é um número que funciona como um botão de ajuste para um modelo de linguagem de IA. Esses botões são definidos durante o treinamento usando dados, e ajustá-los pode fazer com que o modelo funcione melhor para tarefas específicas. Quanto mais melhor.

O relatório diz que o ex-chefe da Alexa, Rohid Prasad, reuniu pesquisadores da Alexa AI e da equipe científica da Amazon para liderar o projeto. Ainda não há informações sobre quando exatamente o modelo de linguagem será lançado.

Você também deve se lembrar que, há alguns meses, a Amazon gastou mais de US$ 4 bilhões em investimento para a startup de modelo de IA Anthropic e outros US$ 300 milhões para a Anthropic no ano passado. 

A fonte também disse à publicação que o modelo tornará sua plataforma de computação em nuvem, AWS, mais atraente para clientes empresariais que exigem acesso às ferramentas de IA mais avançadas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *