O modelo de linguagem Amazon Olympus AI supostamente tem parâmetros maiores em comparação com GPT-4
2 minutos. ler
Publicado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
A Amazon está entrando na corrida da IA contra a OpenAI e o Google. Fontes familiarizadas com o assunto disseram Reuters que a gigante da tecnologia alocou milhões de dólares para construir um novo modelo de linguagem chamado Olympus.
Ao que parece, a Olympus pode ser o maior modelo treinado na história até agora. O mais recente GPT-4 da OpenAI, por exemplo, possui um trilhão de parâmetros. O ambicioso plano da Amazon duplica os parâmetros para 2 trilhões. O Google Bard, por outro lado, tem 137 bilhões.
Um parâmetro é um número que funciona como um botão de ajuste para um modelo de linguagem de IA. Esses botões são definidos durante o treinamento usando dados, e ajustá-los pode fazer com que o modelo funcione melhor para tarefas específicas. Quanto mais melhor.
O relatório diz que o ex-chefe da Alexa, Rohid Prasad, reuniu pesquisadores da Alexa AI e da equipe científica da Amazon para liderar o projeto. Ainda não há informações sobre quando exatamente o modelo de linguagem será lançado.
Você também deve se lembrar que, há alguns meses, a Amazon gastou mais de US$ 4 bilhões em investimento para a startup de modelo de IA Anthropic e outros US$ 300 milhões para a Anthropic no ano passado.
A fonte também disse à publicação que o modelo tornará sua plataforma de computação em nuvem, AWS, mais atraente para clientes empresariais que exigem acesso às ferramentas de IA mais avançadas.