Verbesserung von Google Assistant: „Look and Talk“, schnellere Sätze, verbesserte Hauttonerkennung und zukünftige Entwicklungen

Symbol für die Lesezeit 4 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Wir sehen in letzter Zeit viele Verbesserungen in Google Assistant. Eines der besten Dinge, die es hervorzuheben gilt, ist der Beamte des Unternehmens Ankündigung der neuen Funktion der Softwareanwendung namens „Look and Talk“ während der Google I/O-Keynote. Nichtsdestotrotz gibt es auch andere erwähnenswerte und wertschätzende Details, insbesondere wenn Sie sich bei Ihren täglichen Aktivitäten stark auf den Assistenten verlassen. Dazu gehören die Verbesserung von Google Assitant in Bezug auf die Erkennung von Hauttönen und die Erweiterung seiner Schnellphrasenbibliothek.

Vor kurzem wurde die neue Look-and-Talk-Funktion, die von Google eingeführt wurde, für alle weit verbreitet Nest Hub max Benutzer in den USA. Die Grundidee dahinter ist einfach: Die Interaktionen der Benutzer mit dem Gerät einfacher und vor allem natürlicher zu gestalten. Dies vereinfacht die Übermittlung von Befehlen an Google Assistant, indem jedes Mal, wenn eine Person den Nest Hub Max aktivieren muss, der Stichwortsatz „Hey Google“ entfernt wird. Die Funktion funktioniert durch die Koordination verschiedener von Google integrierter Technologien. Insbesondere verwendet Look and Talk die Face Match- und Voice Match-Funktionen des Systems, um zu bestimmen, wann es reagieren soll.

Mit der Look-and-Talk-Funktion muss der Benutzer nur nicht mehr als 5 Fuß vom Nest Hub Max entfernt stehen, starren und befehlen Google Assistant. „Nehmen wir an, ich muss meine undichte Küchenspüle reparieren“, sagt Sissie Hsiao, Vizepräsidentin von Google Assistant, und versucht in dem Blogbeitrag zu erklären, wie Look and Talk funktioniert. „Wenn ich den Raum betrete, kann ich einfach auf meinen Nest Hub Max schauen und „Zeig Klempner in meiner Nähe“ sagen – ohne erst „Hey Google“ sagen zu müssen.“

Hsiao fügt außerdem hinzu, dass das Video der vom Assistenten analysierten Interaktionen „vollständig auf dem Gerät verarbeitet“ wird, wodurch sichergestellt wird, dass Ihre Daten nicht mit Google oder anderen Apps von Drittanbietern geteilt werden. Hsiao betont auch, dass die neue Funktion die Privatsphäre respektiert, sodass Sie die Möglichkeit haben, sich jederzeit an- oder abzumelden. Es ist zunächst deaktiviert und muss über die Google Home App aktiviert werden. Gehen Sie einfach zu den Geräteeinstellungen des Nest Hub Max, dann zu „Erkennung & Freigabe“, dann zum Menü „Face Match“ und schalten Sie die Einstellung ein.

„Hinter den Kulissen passiert viel, um zu erkennen, ob Sie tatsächlich Augenkontakt mit Ihrem Gerät herstellen, anstatt ihm nur einen flüchtigen Blick zu schenken“, bemerkt Hsiao. „Tatsächlich sind sechs Modelle für maschinelles Lernen erforderlich, um mehr als 100 Signale sowohl von der Kamera als auch vom Mikrofon zu verarbeiten – wie Nähe, Kopfausrichtung, Blickrichtung, Lippenbewegung, Kontextbewusstsein und Absichtsklassifizierung – alles in Echtzeit.“

Angesichts der Tatsache, dass Look and Talk über Face Match funktioniert, ist es andererseits wichtig zu beachten, dass Google dafür gesorgt hat, dass es für eine Vielzahl von Benutzern effektiv ist, indem es die im letzten Jahr eingeführte Real Tone-Technologie integriert hat. Dadurch kann die Nest Hub Max-Kamera bei verschiedenen Hauttönen effizient arbeiten. Darüber hinaus verspricht das Unternehmen, die Dinge durch die Verwendung der „Monk Skin Tone Scale“ weiter voranzutreiben, um der Maschine zu helfen, Bilder effizienter zu verstehen.

In der Hoffnung, die Notwendigkeit zu verringern, den Stichwortsatz „Hey Google“ häufiger zu sagen, fügt Google außerdem mehr hinzu schnelle Sätze im Nest Hub Max. Dies erleichtert den Benutzern die Arbeit, ohne in die Kamera des Geräts starren oder davor stehen zu müssen. Wie Look and Talk kann auch Voice Match, das die Arbeit mit schnellen Sätzen verwaltet, ein- und ausgeschaltet werden.

Während die von Google enthüllten Verbesserungen den Assistenten dieses Mal zufriedenstellender machen, sagt Google, dass es in Zukunft noch mehr Pläne für die Software hat. Es beinhaltet, ihm bessere Sprach- und Sprachmodelle zu geben, um „die Nuancen der menschlichen Sprache zu verstehen“. Derzeit arbeitet das Unternehmen an einem maßgeschneiderten Tensor-Chip, der es dem Assistenten ermöglicht, maschinelle Lernaufgaben auf dem Gerät so schnell wie möglich zu erledigen. Nach dem Erfolg sagt Google, dass diese vielversprechende Technologie dem Assistenten helfen wird, die menschliche Sprache besser zu verstehen, selbst wenn unnötige Füller (wie „ähm“ oder „ahh“) vorhanden sind und Pausen gemacht werden, wenn jemand spricht.

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *