Sagar Savla表示,虽然依靠云ASR能为我们提供更高的准确性,但Google希望可以减少Live Transcribe所需的网络流量消耗。为此,Google在先前AudioSet的工作基础上,实现了基于神经网络的设备语音检测器。该网络是一种图像式模型,类似于我们之前发布的VGGish模型,它可以检测语音并自动管理与云ASR引擎的网络连接,将长时间使用过程中的数据流量消耗降至最低。
在技术呈现方面,Google曾考虑了几种不同的模式:计算机、平板电脑、智能手机、小型投影仪,以迭代方式显示听觉信息和字幕。最后,Sagar Savla的团队决定专注于智能手机模式,因为这类设备无处不在且功能日益强大。
(软件使用量热度图)
资料显示,世界卫生组织预计,到2055年全球将有九亿人听力受损。谷歌的这项软件可以为他们带去便利。目前该软件在亚洲已经非常流行。
本文素材来自互联网