Verbetering van de Google Assistent: 'Look and Talk', snellere zinnen, verbeterde huidtintherkenning en toekomstige ontwikkelingen

Pictogram voor leestijd 4 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

We zien de laatste tijd veel verbeteringen in Google Assistant. Een van de beste dingen om te benadrukken is de officiële van het bedrijf aankondiging van de nieuwe functie van de softwaretoepassing genaamd "Look and Talk" tijdens de Google I/O-keynote. Desalniettemin zijn er ook andere details die het vermelden en waarderen waard zijn, vooral als u in uw dagelijkse activiteiten sterk afhankelijk bent van de Assistent. Deze omvatten de verbetering van Google Assitant op het gebied van het herkennen van huidtinten en de uitbreiding van de bibliotheek met snelle zinnen.

Onlangs is de nieuwe Look-and-talk-functie die door Google is geïntroduceerd, voor iedereen op grote schaal uitgerold Nest Hub Max gebruikers in de VS. Het belangrijkste idee erachter is eenvoudig: maak de interacties van de gebruikers met het apparaat eenvoudiger en vooral natuurlijker. Dit vereenvoudigt de levering van opdrachten aan Google Assitant door de cue-zin 'Hey Google' te verwijderen telkens wanneer iemand de Nest Hub Max moet activeren. De functie werkt door de coördinatie van verschillende technologieën die door Google zijn geïntegreerd. Look and Talk maakt met name gebruik van de Face Match- en Voice Match-mogelijkheden van het systeem, zodat het kan bepalen wanneer het moet reageren.

Met de Look and Talk-functie hoeft de gebruiker niet meer dan 5 meter bij de Nest Hub Max vandaan te staan, te staren en de Google Assistant. "Stel dat ik mijn lekkende gootsteen moet repareren", zegt Google Assistant Vice President Sissie Hsiao, die in de blogpost probeert uit te leggen hoe Look and Talk werkt. "Als ik de kamer binnenloop, kan ik gewoon naar mijn Nest Hub Max kijken en 'Laat loodgieters bij mij in de buurt' zeggen, zonder eerst 'Hey Google' te hoeven zeggen."

Hsiao voegt er ook aan toe dat de video van de interacties die door de Assistent worden geanalyseerd, "volledig op het apparaat wordt verwerkt", zodat uw gegevens niet worden gedeeld met Google of andere apps van derden. Hsiao benadrukt ook dat de nieuwe functie de privacy respecteert, dus je hebt de mogelijkheid om je op elk moment aan of uit te zetten. Het is in eerste instantie gedeactiveerd en je moet het inschakelen via de Google Home-app. Ga naar de apparaatinstelling van de Nest Hub Max, vervolgens naar 'Herkenning en delen' en vervolgens naar het menu 'Gezichtsovereenkomst' en schakel de instelling in.

"Er gebeurt veel achter de schermen om te herkennen of je daadwerkelijk oogcontact maakt met je apparaat in plaats van er slechts een vluchtige blik op te werpen", merkt Hsiao op. "In feite zijn er zes machine learning-modellen nodig om meer dan 100 signalen van zowel de camera als de microfoon te verwerken - zoals nabijheid, hoofdoriëntatie, blikrichting, lipbeweging, contextbewustzijn en intentieclassificatie - allemaal in realtime."

Aan de andere kant, aangezien Look and Talk via Face Match werkt, is het belangrijk op te merken dat Google ervoor heeft gezorgd dat het effectief is voor een verscheidenheid aan gebruikers door de Real Tone-technologie op te nemen die het vorig jaar heeft gelanceerd. Hierdoor kan de Nest Hub Max-camera efficiënt werken bij verschillende huidtinten. Bovendien belooft het bedrijf nog een stap verder te gaan door gebruik te maken van de "Monk Skin Tone Scale" om de machine te helpen afbeeldingen efficiënter te begrijpen.

Bovendien, in de hoop de noodzaak om de cue-zin "Hey Google" meer te zeggen, neemt Google ook meer op snelle zinnen in de Nest Hub Max. Dit maakt het voor gebruikers eenvoudiger zonder naar de camera van het apparaat te staren of ervoor te gaan staan. Net als de Look and Talk kan de Voice Match, die het werk van snelle frases beheert, ook worden in- en uitgeschakeld.

Hoewel de door Google onthulde verbeteringen de Assistent deze keer bevredigender maken, zegt Google dat het in de toekomst nog meer plannen heeft voor de software. Het omvat het geven van betere spraak- en taalmodellen om "de nuances van menselijke spraak te begrijpen". Vanaf nu werkt het bedrijf aan een op maat gemaakte Tensor-chip waarmee de assistent de machine learning-taken op het apparaat zo snel mogelijk kan uitvoeren. Eenmaal succesvol, zegt Google dat deze veelbelovende technologie de Assistent zal helpen een beter begrip van menselijke spraak te krijgen, zelfs met de aanwezigheid van onnodige vullers (zoals "uhm" of "ahh") en pauzeert wanneer iemand spreekt.

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *