Forbedring af Google Assistant: 'Look and Talk', flere hurtige sætninger, forbedret hudtonegenkendelse og fremtidige udviklinger

Ikon for læsetid 4 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

Vi har set en hel del forbedringer i Google Assistant på det seneste. En af de bedste ting at fremhæve er virksomhedens embedsmand meddelelse af softwareapplikationens nye funktion kaldet "Look and Talk" under dens Google I/O keynote. Ikke desto mindre er der også andre detaljer, der er værd at nævne og værdsætte, især hvis du er meget afhængig af assistenten i dine daglige aktiviteter. Disse omfatter Google Assitants forbedring med hensyn til genkendelse af hudtoner og udvidelse af dets bibliotek med hurtige sætninger.

For nylig er den nye Look and talk-funktion introduceret af Google set udbredt bredt til alle Nest Hub Max brugere i USA. Hovedtanken bag det er enkel: Gør brugernes interaktion med enheden mere ligetil og frem for alt mere naturlig. Dette forenkler leveringen af ​​kommandoer til Google Assitant ved at fjerne cue-sætningen "Hey Google", hver gang en person skal aktivere Nest Hub Max. Funktionen fungerer gennem koordinering af forskellige teknologier integreret af Google. Specifikt bruger Look and Talk systemets Face Match- og Voice Match-funktioner, der hjælper det med at bestemme, hvornår det skal svare.

Ved at bruge Look and Talk-funktionen skal brugeren bare ikke stå mere end 5 fod væk fra Nest Hub Max, stirre og kommandere Google Assistant. "Lad os sige, at jeg skal ordne min utætte køkkenvask," siger Google Assistant Vice President Sissie Hsiao og forsøger at forklare, hvordan Look and Talk fungerer i blogindlægget. "Mens jeg går ind i lokalet, kan jeg bare se på min Nest Hub Max og sige "Vis blikkenslagere i nærheden af ​​mig" - uden at skulle sige "Hey Google" først."

Hsiao tilføjer også, at videoen af ​​de interaktioner, der analyseres af assistenten, "behandles fuldstændigt på enheden", hvilket sikrer, at dine data ikke deles med Google eller andre tredjepartsapps. Hsiao understreger også, at den nye funktion respekterer privatlivets fred, så du har mulighed for at til- eller fravælge det når som helst. Den er i første omgang deaktiveret, og du skal tænde den via Google Home-appen. Bare gå til enhedsindstillingen for Nest Hub Max, derefter til "Genkendelse og deling" og derefter til menuen "Face Match", og slå indstillingen til.

"Der sker en masse bag kulisserne for at erkende, om du faktisk har øjenkontakt med din enhed i stedet for blot at give den et forbigående blik," bemærker Hsiao. "Faktisk kræver det seks maskinlæringsmodeller at behandle mere end 100 signaler fra både kameraet og mikrofonen - såsom nærhed, hovedorientering, blikretning, læbebevægelse, kontekstbevidsthed og hensigtsklassificering - alt sammen i realtid."

På den anden side, i betragtning af at Look and Talk fungerer gennem Face Match, er det vigtigt at bemærke, at Google sørgede for at gøre det effektivt for en mangfoldighed af brugere ved at inkludere Real Tone-teknologien, som det lancerede sidste år. Dette gør det muligt for Nest Hub Max-kameraet at arbejde effektivt på tværs af forskellige hudfarver. Derudover lover virksomheden at skubbe tingene yderligere ved at bruge "Monk Skin Tone Scale" for at hjælpe maskinen med at forstå billeder mere effektivt.

Desuden, i håb om at mindske behovet for at sige cue-sætningen "Hey Google" mere, inkluderer Google også mere hurtige sætninger i Nest Hub Max. Dette gør tingene nemmere for brugerne uden at skulle stirre på enhedens kamera eller stå foran det. Ligesom Look and Talk kan Voice Match, der styrer arbejdet med hurtige sætninger, også slås fra og til.

Mens forbedringerne afsløret af Google gør assistenten mere tilfredsstillende denne gang, siger Google, at den stadig har flere planer for softwaren i fremtiden. Det inkluderer at give det bedre tale- og sprogmodeller for at "forstå nuancerne i menneskelig tale." Lige nu arbejder virksomheden på en specialudviklet Tensor-chip, der giver assistenten mulighed for at håndtere maskinlæringsopgaver på enheden på den hurtigste måde som muligt. Når den har lykkes, siger Google, at denne lovende teknologi vil hjælpe assistenten med at få en bedre forståelse af menneskelig tale, selv med tilstedeværelsen af ​​unødvendige fyldstoffer (som "uhm" eller "ahh") og holder pause, når nogen taler.

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *