您的位置: 主页 > Google Pixel 增加一项 AI 功能,变得更贴心

Google Pixel 增加一项 AI 功能,变得更贴心



2019 年 8 月 1 日,Google 官方部落格宣布,Google 正为 Pixel 增加一款应用程序,让使用者能在不说话的前提下,将位置资讯传给医疗、消防或警方急救人员。

 

据 Google 官方介绍,此应用程序会有「医疗」、「火警」、「警察」3 按钮,点击按钮,就会触发文本到语音功能,解读资讯告诉接线员,来电者正在使用一项自动服务,描述来电者需要的帮助种类及当前位置(来自手机 GPS 定位)。

 

Google 表示,新功能适用某些需要紧急服务但因受伤、危险情况或言语残疾而无法与接线员口头沟通的使用者。另外,Google 还表示,这个功能将于未来几个月在美国 Pixel 推出,随后可能会在其他 Android 设备应用。

国外媒体指出,Google 新应用程序是 Pixel 一项功能的扩展。早在 2017 年,Google 曾在 Pixel 推出智能功能,包括拨打紧急电话时自动显示位置。

此功能有很强的实用性,Pixel 使用者可在不熟悉具体位置的情况下报告有关社会治安的危急情况或事件。使用者在美国拨打紧急电话号码(如 911)时,拨号屏幕会显示紧急位置资讯,以便向紧急联络人员提供确切坐标。

Call Screen:拒绝垃圾电话,过滤来电

这不是 Google 第一次推出有智能性质的手机应用程序,之前还有过离线即时语音识别、过滤来电等应用程序。

 

2018 年,Google 推出以 Duplex 技术打造的来电过滤、代接功能 Call Screen。使用者接受来电时,如果觉得可能是骚扰电话,可点屏幕上的「过滤来电」按钮。Google 的 AI 助理会自动接听电话,且双方对话会即时识别为文字显示在屏幕上。

通常来说,AI 助理会在开头先告诉对方,「你拨号的使用者正在使用 Google Call Screen 功能,他能看到我们的对话,请说你是谁,打电话来有什么事。」

使用者不仅可观看屏幕文字了解对话内容,还可以中途发指令给 AI 助理,例如:「事情紧急吗?」、「我稍后打给你?」、「我没有听懂」。这些指令是 AI 助理根据上下文自动生成的建议指令,会显示在屏幕,只要点一下,AI 助理就会自动询问对方问题。

Google 表示,这个功能无需网络,不过暂时只能在美国使用,只支持英文,且只能在 Pixel 使用。

Gboard:无线即时语音识别

另外,今年 3 月时,Google 在部落格宣布即时语音识别技术取得突破──利用 Google Pixel 手机的神经处理功能加上人工智能技术,Gboard 使用者可离线即时语音识别。

之前,如果使用者在 Pixel 设备使用 Gboard,需要先语音识别并转化成文本,而即时语音处理则需要使用 Wi-Fi 或蜂巢式网络连线才能进行。不过,经过 Google 开发架构,Gboard 可藉助 Pixel 设备的神经处理功能,做到离线工作。

据了解,Gboard 新模型缩小了系统称为「解码器图形」的部分,这个组件的功能类似书本索引,将音频波形与书面文字配合。Gboard 的听写模型旧版中,这个解码器图形大小为 2GB,新版本仅 80MB,缩小了 25 倍。

尽管新功能目前仅适用 Pixel 设备、讲美式英语的 Gboard 使用者,但 Google 曾表示,希望开发的技术能用于更多语言、更多设备、更多环境。

Google 在手机的一系列创新,正是今年 Google I/O 强调的价值观──Building a more helpful Google for everyone──的最佳体现。

延伸阅读:

上一篇:亚马逊的实体「一键下单」使命完结,AI 助理是它们加速淘汰的主因
下一篇:4 个步骤,动手打造自己的 AI 团队

您可能喜欢

回到顶部