Melhorando o Google Assistant: 'Look and Talk', frases mais rápidas, reconhecimento de tom de pele aprimorado e desenvolvimentos futuros

Ícone de tempo de leitura 4 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Estamos vendo muitas melhorias no Google Assistant recentemente. Uma das melhores coisas a destacar é o anúncio oficial da empresa anúncio do novo recurso do aplicativo de software chamado “Look and Talk” durante sua palestra do Google I/O. No entanto, também há outros detalhes que merecem ser mencionados e apreciados, especialmente se você confia muito no Assistente em suas atividades diárias. Isso inclui a melhoria do Google Assistant em termos de reconhecimento de tons de pele e a expansão de sua biblioteca de frases rápidas.

Recentemente, o novo recurso Look and talk introduzido pelo Google foi lançado amplamente para todos Ninho do hub Max usuários nos EUA. A ideia principal por trás disso é simples: tornar as interações dos usuários com o dispositivo mais diretas e, acima de tudo, mais naturais. Isso simplifica a entrega de comandos para o Google Assitant removendo a frase de sinalização "Ok Google" sempre que uma pessoa precisa ativar o Nest Hub Max. O recurso funciona por meio da coordenação de diferentes tecnologias integradas pelo Google. Especificamente, o Look and Talk usa os recursos Face Match e Voice Match do sistema, ajudando-o a determinar quando responder.

Usando o recurso Look and Talk, o usuário só precisa ficar a não mais de 5 metros do Nest Hub Max, olhar e comandar o Assistente Google. “Digamos que eu precise consertar minha pia da cozinha com vazamento”, diz a vice-presidente do Google Assistant Sissie Hsiao, tentando explicar como o Look and Talk funciona na postagem do blog. “Quando entro na sala, posso apenas olhar para meu Nest Hub Max e dizer 'Mostrar encanadores perto de mim', sem precisar dizer 'Ok Google' primeiro.”

Hsiao também acrescenta que o vídeo das interações analisadas pelo Assistente é “processado inteiramente no dispositivo”, garantindo que seus dados não sejam compartilhados com o Google ou qualquer outro aplicativo de terceiros. Hsiao também ressalta que o novo recurso respeita a privacidade, então você tem a opção de ativar ou desativar a qualquer momento. Ele está inicialmente desativado e você precisa ativá-lo por meio do aplicativo Google Home. Basta acessar a configuração do dispositivo do Nest Hub Max, depois em "Reconhecimento e compartilhamento", depois no menu "Correspondência facial" e ativar a configuração.

“Há muita coisa acontecendo nos bastidores para reconhecer se você está realmente fazendo contato visual com seu dispositivo em vez de apenas dar uma olhada rápida”, observa Hsiao. “Na verdade, são necessários seis modelos de aprendizado de máquina para processar mais de 100 sinais da câmera e do microfone – como proximidade, orientação da cabeça, direção do olhar, movimento dos lábios, percepção do contexto e classificação da intenção – tudo em tempo real.”

Por outro lado, dado que o Look and Talk funciona através do Face Match, é importante notar que o Google fez questão de torná-lo eficaz para uma diversidade de usuários, incluindo a tecnologia Real Tone lançada no ano passado. Isso permite que a câmera Nest Hub Max funcione com eficiência em diferentes tons de pele. Além disso, a empresa promete levar as coisas ainda mais longe, utilizando a “Escala de tons de pele de monge” para ajudar a máquina a entender as imagens com mais eficiência.

Além disso, na esperança de diminuir a necessidade de dizer mais a frase “Hey Google”, o Google também está incluindo mais frases rápidas no Nest Hub Max. Isso torna as coisas mais simples para os usuários sem precisar olhar para a câmera do dispositivo ou ficar na frente dela. Assim como o Look and Talk, o Voice Match que gerencia o trabalho de frases rápidas também pode ser desligado e ligado.

Embora as melhorias reveladas pelo Google tornem o Assistente mais satisfatório desta vez, o Google diz que ainda tem mais planos para o software no futuro. Inclui dar-lhe melhores modelos de fala e linguagem para “entender as nuances da fala humana”. A partir de agora, a empresa está trabalhando em um chip Tensor de engenharia personalizada para permitir que o Assistente lide com tarefas de aprendizado de máquina no dispositivo da maneira mais rápida possível. Uma vez bem-sucedida, o Google diz que essa tecnologia promissora ajudará o Assistente a entender melhor a fala humana mesmo com a presença de preenchimentos desnecessários (como “uhm” ou “ahh”) e pausas quando alguém está falando.

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *