谷歌开发语音命令数据集的目的——帮助大家创建基础且有用的语音交互
2017年08月25日 由 nanan 发表
57816
0
谷歌的工程师们经常被问到这样的一个问题——怎么上手用深度学习做语音识别或其它音频识别,比如关键词或指令?
目前,出现了一些很优秀的开源语音识别系统,例如Kaldi,就能把神经系统作为其中的一个模块。但其的高度复杂性,并不适合 解决简单问题的指南。更重要的是,对于新手而言,免费、公开可获取到的数据并不多,适合简单的关键词也不是很多。
为解决这一问题,谷歌的TensorFlow 和 AIY 团队创建了TensorFlow 和 AIY 团队创建了Speech Commands Dataset,即“语音命令数据集”。据了解,谷歌在今日宣布开源该数据集。
对于30个命令短语,会有65000次的长约一秒钟的发音,这来源于65000个不同人的贡献。该数据集未来将会不断的扩大。
建立这数据集的目的,是帮助大家为应用创建基础但有用的语音交互。谷歌也已经将开发这一数据集的基础设施开源,尤其是针对冷门语言和应用。
下载预建的 TensorFlow 安卓演示 APP,打开 “TF Speech”,就能体验谷歌基于该数据集开发的识别模型。