讯飞输入法随心说 中英、七大方言混合语音输入无压力

  • 时间:
  • 浏览:9

都说 2018 是人工智能(AI)应用元年,遥不可及的AI与大众的关系变得没法亲密。 2018 年 4 月,讯飞输入法发布了全语音交互的“莫得键盘”; 6 月AI赋能,使通用语音识别率提升至98%,支持 20 多种方言语音输入,实现语音识别、语音合成以及机器翻译的场景融合,提升语音输入的表达力。经过多日时间的创新和沉淀,讯飞输入法语音输入又有了新突破,最新Android版本支持中英混合语音输入『随心说』,一起去优化普通话与方言口音的混合语音输入效果,增强了语音输入体验。

有没法发现,职场工作的你时不时说中文夹杂英文。放假回家,Amanda又秒变彩凤,前一句普通话后一句家乡话脱口而出!常见的语音输入是没法 的,上班谈事说英文切换到英文识别模式;回家跟亲你们好友在线聊天,说家乡话切换到对应的方言模式。将会想在沟通中做到“雅俗共赏”,那里能 手动切换起来,中→英,英→中,普通话→方言,方言→普通话,英→方言,频繁操作体验自然不尽如人意。

日前讯飞输入法上线语音输入『随心说』,不用切换语音识别模式就能实现中英混合语音输入。据悉,为更好助力方言口音的表达,进一步优化了包括东北话、天津话、河南话、皖北话、山东话、河北话、四川话七种方言与普通话的混合语音输入效果。“准确输入”、“高效表达”、“便捷交互”、“智能识别”基于哪此关键词,里能 看出讯飞输入法技术能力快速迭代,一起去也是科大讯飞AI核心技术不断赋能的体现。

事实上,科大讯飞在AI研究和应用,有点痛 是智能语音方面布局多年。基于注意力模型的核心思想,通过机器学习的方式,构建了Hybrid CNN模型,用于构建语音识别声学模型的全局优化,堪称目前效果更好、资源占用更小、模型更灵活的语音识别框架。

具体来说,在原DFCNN基础上,将传统卷积使用扩张卷积代替,从而实现对语音长时相关性的更精确的表达。与此一起去,还引入基于长短期记忆网络LSTM的门控机制使得Hybrid CNN在长时相关性建模的过程中,能快速的过滤噪声等干扰信息,并加强语境等长时信息,颇具灵活性,从而在实际应用中不能保障高噪声等僵化 场景的语音识别效果。

另外,Hybrid CNN模型真正实现了端到端的建模,以原始音频波形直接建模,正确处理了人工设计的社会形态提取过程带来的信息损失,真正的实现了端到端建模,进一步提升识别效果。

也正将会上述的创新,使Hybrid CNN这个前沿的语音识别框架克服了DFCNN模型参数量和计算僵化 度大的什么的问题。在保证识别效果不损失的情况汇报下,系统资源占用规模和运算量同比下降了500%以上,使得Hybrid CNN里能 在手机等设备上流畅的运行,这也使得本地化语音的识别效果更加接近云端识别效果。

A.I.持续赋能讯飞输入法,不仅提高手机输入速率单位单位和准确率,甚至免去语音识别的切换操作,让用户享受A.I.带来的全新便捷生活。

本文由站长之家用户投稿,未经站长之家同意,严禁转载。如广大用户你们,发现稿件趋于稳定不实报道,欢迎读者反馈、纠正、举报什么的问题(反馈入口)。

免责声明:本文为用户投稿的文章,站长之家发布此文仅为传递信息,不代表站长之家赞同其观点,不对对内容真实性负责,仅供用户参考之用,不构成任何投资、使用建议。请读者自行核实真实性,以及将会趋于稳定的风险,任何后果均由读者自行承担。

声明:本文转载自第三方媒体,如需转载,请联系版权方授权转载。协助申请