Google Assistant 已经非常方便了,可以在外卖订单中填写您的付款信息, 帮助孩子准时上学, 控制立体声系统的音量和家中的智能照明时间表。在周三的 I/O 2022 开发者大会上,公司高管展示了一些即将推出的 AI 新功能。
第一个是“看和说”。这项新功能无需通过“Hey Google”反复向 Google 助理发起请求,而是依靠计算机视觉和语音匹配来不断关注用户。正如 Google 助理副总裁 Sissie Hsiao 在舞台上解释的那样,用户所要做的就是查看他们的 Nest Hub 并提出他们的要求。谷歌还在开发一系列快速命令,用户无需急切地凝视平板电脑屏幕或先说“嘿谷歌”就可以喊出这些命令——比如“开灯”和“设置十分钟闹钟” 。”
Hsiao 继续说,在该交互中捕获的所有数据——特别是用户的面部和声纹,用于验证用户——都在 Hub 本身本地处理,而不是与谷歌“或其他任何人”共享。更重要的是,您必须先专门选择加入该服务,然后才能使用它。
根据 Hsiao 的说法,这个过程的后端依赖于 6 个机器学习模型和 100 个摄像头和麦克风输入——即接近度、头部方向和注视方向——以确保机器知道你什么时候在和它说话而不是在前面说话其中。该公司还报告说,它一直在努力确保该系统适用于所有人类肤色的人。
展望未来,谷歌计划继续改进其 NLP 模型,通过“构建能够理解人类语音细微差别的新的、更强大的语音和语言模型”,进一步提高 Assistant 响应的响应能力和保真度。 “Assistant 将能够更好地理解人类语言的不完美之处,而不会被绊倒——包括停顿、‘嗯’和打断——让你的互动感觉更接近自然对话。”
在此处关注 Google I/O 2022 的所有新闻!