Amélioration de Google Assistant : "Look and Talk", des phrases plus rapides, une meilleure reconnaissance du teint de la peau et des développements futurs

Icône de temps de lecture 4 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

Nous constatons récemment de nombreuses améliorations dans Google Assistant. L'une des meilleures choses à souligner est l'officiel de l'entreprise annonce de la nouvelle fonctionnalité de l'application logicielle appelée "Look and Talk" lors de son discours d'ouverture Google I/O. Néanmoins, il y a aussi d'autres détails qui méritent d'être mentionnés et appréciés, surtout si vous comptez beaucoup sur l'assistant dans vos activités quotidiennes. Il s'agit notamment de l'amélioration de Google Assistant en termes de reconnaissance des tons de peau et de l'expansion de sa bibliothèque de phrases rapides.

Récemment, la nouvelle fonctionnalité Look and talk introduite par Google est largement déployée pour tous Nest Hub Max utilisateurs aux États-Unis. L'idée principale est simple : rendre les interactions des utilisateurs avec l'appareil plus simples et, surtout, plus naturelles. Cela simplifie la livraison des commandes à Google Assitant en supprimant la phrase de repère "Hey Google" chaque fois qu'une personne doit activer le Nest Hub Max. La fonctionnalité fonctionne grâce à la coordination de différentes technologies intégrées par Google. Plus précisément, Look and Talk utilise les capacités Face Match et Voice Match du système, l'aidant à déterminer quand répondre.

À l'aide de la fonction Look and Talk, l'utilisateur n'a qu'à se tenir à moins de 5 pieds du Nest Hub Max, regarder et commander le Assistant Google. "Disons que j'ai besoin de réparer mon évier de cuisine qui fuit", déclare Sissie Hsiao, vice-présidente adjointe de Google, essayant d'expliquer le fonctionnement de Look and Talk dans le billet de blog. "Lorsque j'entre dans la pièce, je peux simplement regarder mon Nest Hub Max et dire "Montre les plombiers à proximité" sans avoir à dire "Hey Google" au préalable."

Hsiao ajoute également que la vidéo des interactions analysées par l'assistant est "entièrement traitée sur l'appareil", garantissant que vos données ne sont pas partagées avec Google ou toute autre application tierce. Hsiao souligne également que la nouvelle fonctionnalité respecte la confidentialité, vous avez donc la possibilité de l'activer ou de la désactiver à tout moment. Il est initialement désactivé et vous devez l'activer via l'application Google Home. Accédez simplement aux paramètres de l'appareil du Nest Hub Max, puis à "Reconnaissance et partage", puis au menu "Face match", et activez le paramètre.

"Il se passe beaucoup de choses dans les coulisses pour savoir si vous établissez réellement un contact visuel avec votre appareil plutôt que de simplement lui jeter un coup d'œil en passant", note Hsiao. "En fait, il faut six modèles d'apprentissage automatique pour traiter plus de 100 signaux provenant à la fois de la caméra et du microphone - comme la proximité, l'orientation de la tête, la direction du regard, le mouvement des lèvres, la conscience du contexte et la classification des intentions - le tout en temps réel."

D'autre part, étant donné que Look and Talk fonctionne via Face Match, il est important de noter que Google s'est assuré de le rendre efficace pour une diversité d'utilisateurs en incluant la technologie Real Tone lancée l'année dernière. Cela permet à la caméra Nest Hub Max de fonctionner efficacement sur différents tons de peau. De plus, la société promet de pousser les choses plus loin en utilisant la "Monk Skin Tone Scale" afin d'aider la machine à comprendre les images plus efficacement.

De plus, dans l'espoir de réduire davantage le besoin de dire la phrase de repère "Hey Google", Google inclut également plus phrases rapides dans Nest Hub Max. Cela simplifie les choses pour les utilisateurs sans avoir à regarder la caméra de l'appareil ou à se tenir devant. Comme le Look and Talk, le Voice Match qui gère le travail des phrases rapides peut également être activé et désactivé.

Alors que les améliorations révélées par Google rendent l'Assistant plus satisfaisant cette fois, Google dit qu'il a encore plus de plans pour le logiciel à l'avenir. Cela inclut de lui donner de meilleurs modèles de parole et de langage pour "comprendre les nuances de la parole humaine". À l'heure actuelle, la société travaille sur une puce Tensor conçue sur mesure pour permettre à l'assistant de gérer les tâches d'apprentissage automatique sur l'appareil de la manière la plus rapide possible. Une fois couronnée de succès, Google affirme que cette technologie prometteuse aidera l'assistant à mieux comprendre la parole humaine même en présence de charges inutiles (comme "uhm" ou "ahh") et s'interrompt lorsque quelqu'un parle.

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *