改进 Google 助理:“看和说”、更快速的短语、改进的肤色识别和未来发展

阅读时间图标 4分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

最近,我们看到 Google Assistant 有了很大的改进。 最值得强调的事情之一是公司的官方 公告 在其 Google I/O 主题演讲中,该软件应用程序的新功能称为“Look and Talk”。 尽管如此,还有其他细节值得一提和欣赏,特别是如果您在日常活动中非常依赖助手。 其中包括 Google Assitant 在识别肤色和扩展其快速短语库方面的改进。

最近,谷歌推出的新 Look and talk 功能被广泛推广到所有人 Nest Hub Max 美国的用户。 它背后的主要思想很简单:让用户与设备的交互更直接,最重要的是,更自然。 每次有人需要激活 Nest Hub Max 时,都会删除提示短语“Hey Google”,从而简化了向 Google 助理发送命令的过程。 该功能通过谷歌集成的不同技术的协调工作。 具体来说,Look and Talk 使用系统的面部匹配和语音匹配功能,帮助它确定何时响应。

使用 Look and Talk 功能,用户只需站在距离 Nest Hub Max 不超过 5 英尺的地方,凝视并指挥 谷歌助理. “假设我需要修理漏水的厨房水槽,”Google 助理副总裁 Sissie Hsiao 说,试图在博客文章中解释 Look and Talk 的工作原理。 “当我走进房间时,我可以看着我的 Nest Hub Max 并说‘显示我附近的管道工’——而不必先说‘嘿谷歌’。”

Hsiao 还补充说,助手分析的交互视频“完全在设备上处理”,确保您的数据不会与谷歌或任何其他第三方应用程序共享。 Hsiao 还强调,新功能尊重隐私,因此您可以随时选择加入或退出。 它最初是停用的,您需要通过 Google Home 应用程序将其打开。 只需转到 Nest Hub Max 的设备设置,然后转到“识别和共享”,然后转到“面部匹配”菜单,然后打开设置。

Hsiao 指出:“在幕后进行了很多工作,以识别您是否真的在与您的设备进行眼神交流,而不仅仅是瞥一眼。” “事实上,需要六个机器学习模型来实时处理来自摄像头和麦克风的 100 多个信号——比如接近度、头部方向、注视方向、嘴唇运动、上下文感知和意图分类——所有这些都是实时的。”

另一方面,鉴于 Look and Talk 通过 Face Match 工作,重要的是要注意谷歌通过包括去年推出的 Real Tone 技术确保它对各种用户有效。 这使得 Nest Hub Max 相机可以在不同的肤色上高效工作。 此外,该公司承诺通过利用“僧侣肤色量表”进一步推动事情,以帮助机器更有效地理解图像。

此外,为了减少说“嘿谷歌”提示短语的需要,谷歌还包括更多 快速短语 在 Nest Hub Max 中。 这使用户不必盯着设备的摄像头或站在它前面,事情就变得更简单了。 与 Look and Talk 一样,管理快速短语工作的 Voice Match 也可以关闭和打开。

虽然谷歌透露的改进让这次的智能助理更加令人满意,但谷歌表示它未来还有更多的软件计划。 它包括为其提供更好的语音和语言模型,以“理解人类语音的细微差别”。 截至目前,该公司正在开发一种定制设计的 Tensor 芯片,以使 Assistant 能够以最快的方式处理设备上的机器学习任务。 一旦成功,谷歌表示,这项有前途的技术将帮助智能助理更好地理解人类语音,即使存在不必要的填充物(如“嗯”或“啊”)并在有人说话时暂停。

发表评论

您的电邮地址不会被公开。 必填带 *