Mejora del Asistente de Google: 'Mira y habla', frases más rápidas, reconocimiento mejorado del tono de piel y desarrollos futuros

Icono de tiempo de lectura 4 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Estamos viendo una gran cantidad de mejoras en el Asistente de Google recientemente. Una de las mejores cosas a destacar es el oficial de la empresa anuncio de la nueva característica de la aplicación de software llamada "Mira y habla" durante su discurso de apertura de Google I/O. No obstante, también hay otros detalles que vale la pena mencionar y apreciar, especialmente si depende mucho del Asistente en sus actividades diarias. Estos incluyen la mejora de Google Assistant en términos de reconocimiento de tonos de piel y la expansión de su biblioteca de frases rápidas.

Recientemente, la nueva función Mirar y hablar presentada por Google se está implementando ampliamente para todos Nest Hub Max usuarios en los EE. La idea principal detrás de esto es simple: hacer que las interacciones de los usuarios con el dispositivo sean más sencillas y, sobre todo, más naturales. Esto simplifica la entrega de comandos a Google Assistant al eliminar la frase clave "Hola Google" cada vez que una persona necesita activar Nest Hub Max. La característica funciona a través de la coordinación de diferentes tecnologías integradas por Google. Específicamente, Look and Talk usa las capacidades Face Match y Voice Match del sistema, ayudándolo a determinar cuándo responder.

Con la función Mirar y hablar, el usuario solo necesita pararse a no más de 5 pies de distancia del Nest Hub Max, mirar y ordenar el Asistente de Google. "Digamos que necesito arreglar el fregadero de mi cocina que gotea", dice la vicepresidenta asistente de Google, Sissie Hsiao, tratando de explicar cómo funciona Look and Talk en la publicación del blog. "Cuando entro en la habitación, puedo mirar mi Nest Hub Max y decir 'Mostrar plomeros cerca de mí', sin tener que decir 'Ok Google' primero".

Hsiao también agrega que el video de las interacciones que analiza el Asistente se "procesa completamente en el dispositivo", lo que garantiza que sus datos no se compartan con Google ni con ninguna otra aplicación de terceros. Hsiao también enfatiza que la nueva función respeta la privacidad, por lo que tiene la opción de activarla o desactivarla en cualquier momento. Inicialmente está desactivado y debe activarlo a través de la aplicación Google Home. Simplemente vaya a la configuración del dispositivo de Nest Hub Max, luego a "Reconocimiento y uso compartido", luego al menú "Face Match" y active la configuración.

“Están sucediendo muchas cosas detrás de escena para reconocer si realmente estás haciendo contacto visual con tu dispositivo en lugar de simplemente mirarlo de pasada”, señala Hsiao. “De hecho, se necesitan seis modelos de aprendizaje automático para procesar más de 100 señales tanto de la cámara como del micrófono, como proximidad, orientación de la cabeza, dirección de la mirada, movimiento de los labios, reconocimiento del contexto y clasificación de intenciones, todo en tiempo real”.

Por otro lado, dado que Look and Talk funciona a través de Face Match, es importante señalar que Google se aseguró de hacerlo efectivo para una diversidad de usuarios al incluir la tecnología Real Tone que lanzó el año pasado. Esto permite que la cámara Nest Hub Max funcione de manera eficiente en diferentes tonos de piel. Además, la compañía promete impulsar las cosas aún más utilizando la "Escala de tono de piel de monje" para ayudar a la máquina a comprender las imágenes de manera más eficiente.

Además, con la esperanza de disminuir la necesidad de decir más la frase clave "Hola Google", Google también incluye más frases rapidas en Nest Hub máx. Esto simplifica las cosas para los usuarios sin tener que mirar a la cámara del dispositivo o pararse frente a ella. Al igual que Look and Talk, Voice Match que gestiona el trabajo de frases rápidas también se puede activar y desactivar.

Si bien las mejoras reveladas por Google hacen que el Asistente sea más satisfactorio esta vez, Google dice que todavía tiene más planes para el software en el futuro. Incluye darle mejores modelos de habla y lenguaje para "comprender los matices del habla humana". A partir de ahora, la compañía está trabajando en un chip Tensor diseñado a medida para permitir que el Asistente maneje las tareas de aprendizaje automático en el dispositivo de la manera más rápida posible. Una vez que tenga éxito, Google dice que esta tecnología prometedora ayudará al Asistente a comprender mejor el habla humana incluso con la presencia de rellenos innecesarios (como "uhm" o "ahh") y pausas cuando alguien está hablando.

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *