A Google Asszisztens továbbfejlesztése: „Nézd meg és beszélj”, több gyors kifejezés, jobb bőrtónus-felismerés és jövőbeli fejlesztések

Olvasási idő ikonra 4 perc olvas


Az olvasók segítenek az MSpoweruser támogatásában. Kaphatunk jutalékot, ha a linkjeinken keresztül vásárol. Eszköztipp ikon

Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább

A közelmúltban rengeteg fejlesztést tapasztalunk a Google Asszisztensben. Az egyik legjobb dolog, amit érdemes kiemelni, a cég hivatalos közlemény a szoftveralkalmazás új funkciója, a „Look and Talk” a Google I/O vitaindító előadása során. Mindazonáltal vannak más részletek is, amelyeket érdemes megemlíteni és értékelni, különösen akkor, ha napi tevékenységei során nagymértékben támaszkodik az asszisztensre. Ezek közé tartozik a Google Assistant fejlesztése a bőrtónusok felismerésében és a gyorskifejezések könyvtárának bővítése.

A közelmúltban mindenki számára elérhetővé vált a Google által bevezetett új Look and talk funkció Nest Hub Max felhasználók az Egyesült Államokban. A mögöttes alapötlet egyszerű: tegye egyszerűbbé és legfőképpen természetesebbé a felhasználók interakcióit az eszközzel. Ez leegyszerűsíti a parancsok kézbesítését a Google Segédnek azáltal, hogy minden alkalommal eltávolítja az „Ok Google” jelzőt, amikor egy személynek aktiválnia kell a Nest Hub Maxet. A funkció a Google által integrált különböző technológiák koordinációján keresztül működik. Pontosabban, a Look and Talk a rendszer Face Match és Voice Match képességeit használja, segítve annak meghatározását, hogy mikor válaszoljon.

A Look and Talk funkció használatával a felhasználónak legfeljebb 5 láb távolságra kell állnia a Nest Hub Maxtől, bámulnia kell, és parancsolnia kell a A Google asszisztens. „Tegyük fel, hogy meg kell javítanom a szivárgó mosogatót” – mondja Sissie Hsiao, a Google Assistant alelnöke, és megpróbálja elmagyarázni a Look and Talk működését a blogbejegyzésben. „Amikor besétálok a szobába, egyszerűen ránézhetek a Nest Hub Maxre, és azt mondhatom, hogy „Mutasd a vízvezeték-szerelőket a közelemben” – anélkül, hogy először azt kellene mondanom, hogy „Ok Google”.

Hsiao azt is hozzáteszi, hogy az Asszisztens által elemzett interakciókról készült videót „teljesen az eszközön dolgozzák fel”, biztosítva, hogy az Ön adatait ne oszthassák meg a Google-lal vagy más harmadik féltől származó alkalmazásokkal. Hsiao azt is hangsúlyozza, hogy az új funkció tiszteletben tartja az adatvédelmet, így Ön bármikor be- vagy kikapcsolhatja azt. Kezdetben deaktiválva van, és be kell kapcsolnia a Google Home alkalmazáson keresztül. Csak lépjen a Nest Hub Max eszközbeállításához, majd a „Felismerés és megosztás”, majd a „Face match” menühöz, és kapcsolja be a beállítást.

„Sok minden történik a színfalak mögött annak felismerésére, hogy valóban szemkontaktust létesítünk-e a készülékkel, nem pedig csak futó pillantást vetünk rá” – jegyzi meg Hsiao. „Valójában hat gépi tanulási modellre van szükség a kamerából és a mikrofonból származó több mint 100 jel feldolgozásához – mint például a közelség, a fej tájolása, a tekintet iránya, az ajakmozgás, a környezettudatosság és a szándékok besorolása – mindezt valós időben.”

Másrészt, mivel a Look and Talk a Face Match-en keresztül működik, fontos megjegyezni, hogy a Google gondoskodott arról, hogy a felhasználók sokfélesége számára hatékony legyen azáltal, hogy belefoglalta a tavaly elindított Real Tone technológiát. Ez lehetővé teszi, hogy a Nest Hub Max kamera hatékonyan működjön a különböző bőrtónusokon. Ezenkívül a vállalat azt ígéri, hogy a „szerzetes bőrtónus skála” használatával tovább viszi a dolgokat, hogy segítse a gépet a képek hatékonyabb megértésében.

Sőt, annak reményében, hogy csökkentse annak szükségességét, hogy többet mondjunk az „Ok Google” kifejezésről, a Google több szót is tartalmaz. gyors kifejezések a Nest Hub Maxben. Ez leegyszerűsíti a dolgát a felhasználók számára anélkül, hogy az eszköz kameráját kellene bámulniuk vagy elé kell állniuk. A Look and Talk-hoz hasonlóan a gyors frázisok munkáját kezelő Voice Match is ki- és bekapcsolható.

Míg a Google által feltárt fejlesztések ezúttal kielégítőbbé teszik az Asszisztenst, a Google azt állítja, hogy a jövőben még több terve van a szoftverrel kapcsolatban. Ez magában foglalja, hogy jobb beszéd- és nyelvi modelleket adunk az „emberi beszéd árnyalatainak megértéséhez”. Jelenleg a vállalat egy egyedi tervezésű Tensor chipen dolgozik, amely lehetővé teszi az Asszisztens számára, hogy a lehető leggyorsabban kezelje az eszközön végzett gépi tanulási feladatokat. Ha sikeres, a Google azt állítja, hogy ez az ígéretes technológia segít az Asszisztensnek abban, hogy jobban megértse az emberi beszédet, még akkor is, ha szükségtelen töltőanyagok (például „uhm” vagy „ahh”) jelennek meg, és szünetet tart, ha valaki beszél.

Hagy egy Válaszol

E-mail címed nem kerül nyilvánosságra. Kötelező kitölteni *