Miglioramento dell'Assistente Google: "Guarda e parla", frasi più veloci, riconoscimento del tono della pelle migliorato e sviluppi futuri

Icona del tempo di lettura 4 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Di recente stiamo assistendo a una grande quantità di miglioramenti nell'Assistente Google. Una delle cose migliori da evidenziare è l'ufficialità dell'azienda annuncio della nuova funzionalità dell'applicazione software denominata "Guarda e parla" durante il keynote di Google I/O. Tuttavia, ci sono anche altri dettagli che vale la pena menzionare e apprezzare, soprattutto se fai molto affidamento sull'Assistente nelle tue attività quotidiane. Questi includono il miglioramento di Google Assitant in termini di riconoscimento dei toni della pelle e l'espansione della sua libreria di frasi rapide.

Di recente, la nuova funzione Guarda e parla introdotta da Google è stata estesa a tutti Nest Hub Max utenti negli Stati Uniti. L'idea principale alla base è semplice: rendere le interazioni degli utenti con il dispositivo più semplici e, soprattutto, più naturali. Ciò semplifica l'invio dei comandi a Google Assitant rimuovendo la frase "Hey Google" ogni volta che una persona deve attivare Nest Hub Max. La funzione funziona attraverso il coordinamento di diverse tecnologie integrate da Google. In particolare, Look and Talk utilizza le funzionalità Face Match e Voice Match del sistema, aiutandolo a determinare quando rispondere.

Utilizzando la funzione Guarda e parla, l'utente deve solo stare a non più di 5 metri di distanza da Nest Hub Max, fissare e comandare il Google Assistant. "Diciamo che devo riparare il mio lavello della cucina che perde", afferma Sissie Hsiao, vicepresidente dell'Assistente Google, cercando di spiegare come funziona Guarda e parla nel post del blog. "Mentre entro nella stanza, posso semplicemente guardare il mio Nest Hub Max e dire "Mostra idraulici vicino a me", senza dover prima dire "Ok Google".

Hsiao aggiunge inoltre che il video delle interazioni analizzate dall'Assistente viene "elaborato interamente sul dispositivo", assicurando che i tuoi dati non vengano condivisi con Google o altre app di terze parti. Hsiao sottolinea inoltre che la nuova funzionalità rispetta la privacy, quindi hai la possibilità di attivarla o disattivarla in qualsiasi momento. Inizialmente è disattivato e devi attivarlo tramite l'app Google Home. Vai alle impostazioni del dispositivo di Nest Hub Max, quindi su "Riconoscimento e condivisione", quindi sul menu "Face match" e attiva l'impostazione.

"C'è molto da fare dietro le quinte per riconoscere se stai effettivamente stabilendo un contatto visivo con il tuo dispositivo piuttosto che dargli uno sguardo di sfuggita", osserva Hsiao. "In effetti, sono necessari sei modelli di apprendimento automatico per elaborare più di 100 segnali sia dalla fotocamera che dal microfono, come prossimità, orientamento della testa, direzione dello sguardo, movimento delle labbra, consapevolezza del contesto e classificazione delle intenzioni, il tutto in tempo reale".

D'altra parte, dato che Look and Talk funziona tramite Face Match, è importante notare che Google si è assicurato di renderlo efficace per una varietà di utenti includendo la tecnologia Real Tone lanciata lo scorso anno. Ciò consente alla videocamera Nest Hub Max di funzionare in modo efficiente su diverse tonalità della pelle. Inoltre, l'azienda promette di spingere ulteriormente le cose utilizzando la "Scala del tono della pelle del monaco" per aiutare la macchina a comprendere le immagini in modo più efficiente.

Inoltre, nella speranza di ridurre la necessità di pronunciare di più la frase di spunto "Hey Google", Google sta includendo anche più frasi veloci in Nest Hub Max. Ciò semplifica le cose per gli utenti senza dover fissare la fotocamera del dispositivo o stare di fronte ad essa. Come il Look and Talk, anche il Voice Match che gestisce il lavoro delle frasi veloci può essere disattivato e attivato.

Mentre i miglioramenti rivelati da Google rendono l'Assistente più soddisfacente questa volta, Google afferma che ha ancora più piani per il software in futuro. Include l'offerta di migliori modelli linguistici e linguistici per "comprendere le sfumature del linguaggio umano". A partire da ora, l'azienda sta lavorando su un chip Tensor personalizzato per consentire all'assistente di gestire le attività di apprendimento automatico sul dispositivo nel modo più veloce possibile. Una volta riuscita, Google afferma che questa promettente tecnologia aiuterà l'assistente a comprendere meglio il linguaggio umano anche in presenza di riempitivi non necessari (come "uhm" o "ahh") e si interrompe quando qualcuno sta parlando.