Покращення Google Assistant: «Дивись і говори», більше швидких фраз, покращене розпізнавання тону шкіри та майбутні розробки

Значок часу читання 4 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Останнім часом ми бачимо багато покращень у Google Assistant. Одна з найкращих речей, яку слід виділити, — це офіційний представник компанії оголошення про нову функцію програмного додатка під назвою «Подивись і говори» під час основної доповіді Google I/O. Тим не менш, є й інші деталі, які варто згадати та оцінити, особливо якщо ви дуже покладаєтеся на Помічника у своїй повсякденній діяльності. Серед них — покращення Google Assitant щодо розпізнавання тонів шкіри та розширення бібліотеки швидких фраз.

Нещодавно нова функція Look and talk, представлена ​​Google, стала широко поширеною для всіх Hub гнізда Макс користувачів у США. Основна ідея проста: зробити взаємодію користувачів із пристроєм більш простим і, головне, більш природним. Це спрощує доставку команд до Google Assitant, видаляючи ключову фразу «Hey Google» щоразу, коли людині потрібно активувати Nest Hub Max. Функція працює завдяки координації різних технологій, інтегрованих Google. Зокрема, Look and Talk використовує функції Face Match і Voice Match системи, допомагаючи їй визначити, коли відповідати.

Використовуючи функцію Look and Talk, користувачеві потрібно просто стояти на відстані не більше ніж 5 футів від Nest Hub Max, дивитися та керувати Google Assistant. «Скажімо, мені потрібно полагодити мою негерметична кухонна раковина», — каже віце-президент Google Сіссі Сяо, намагаючись пояснити, як працює Look and Talk, у дописі в блозі. «Коли я заходжу в кімнату, я можу просто поглянути на свій Nest Hub Max і сказати «Покажи сантехніків поруч зі мною», не кажучи спочатку «Hey Google».

Сяо також додає, що відео взаємодій, які аналізує Асистент, «повністю обробляється на пристрої», гарантуючи, що ваші дані не передаються Google або будь-яким іншим стороннім додаткам. Сяо також наголошує, що нова функція поважає конфіденційність, тому у вас є можливість увімкнути або вимкнути її в будь-який час. Спочатку його деактивовано, і вам потрібно ввімкнути його через програму Google Home. Просто перейдіть до налаштувань пристрою Nest Hub Max, потім до «Розпізнавання та спільного доступу», потім до меню «Face match» та ввімкніть налаштування.

«За лаштунками багато чого відбувається, щоб розпізнати, чи дійсно ви стикаєтесь зі своїм пристроєм, а не просто кидаєте на нього побіжний погляд», – зауважує Сяо. «Насправді, потрібно шість моделей машинного навчання, щоб обробляти понад 100 сигналів як від камери, так і від мікрофона, таких як близькість, орієнтація голови, напрямок погляду, рух губ, усвідомлення контексту та класифікація намірів — і все це в реальному часі».

З іншого боку, враховуючи, що Look and Talk працює через Face Match, важливо зазначити, що Google подбала про те, щоб зробити його ефективним для різноманітних користувачів, включивши технологію Real Tone, яку вона запустила минулого року. Це дозволяє камері Nest Hub Max ефективно працювати з різними відтінками шкіри. Крім того, компанія обіцяє продовжити роботу, використовуючи «Шкала тону шкіри ченця», щоб допомогти машині більш ефективно розуміти зображення.

Крім того, у надії зменшити потребу більше говорити ключову фразу «Hey Google», Google також включає більше швидкі фрази в Nest Hub Max. Це спрощує роботу користувачів, не дивлячись на камеру пристрою або стоячи перед нею. Як і Look and Talk, Voice Match, який керує роботою швидких фраз, також можна вимкнути та ввімкнути.

Хоча вдосконалення, виявлені Google, цього разу роблять асистент більш задоволеним, Google каже, що у нього все ще є більше планів щодо програмного забезпечення в майбутньому. Це включає в себе надання кращих мовленнєвих і мовних моделей, щоб «розуміти нюанси людського мовлення». На даний момент компанія працює над спеціально розробленим чіпом Tensor, який дозволить помічнику максимально швидко виконувати завдання машинного навчання на пристрої. Після успіху Google каже, що ця багатообіцяюча технологія допоможе Асистенту краще розуміти людську мову навіть за наявності непотрібних наповнювачів (наприклад, «хм» або «ах») і пауз, коли хтось говорить.

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *