谷歌攻陷同声传译,Translatotron炸裂现身

jujusharp  •  May 20, 2019 6:47:34 PM

原文地址


谷歌攻陷同声传译

作为中国人,学好英语这件事从小学开始就让人苦恼,近些年随着AI的快速发展,语言差异是否会缩小甚至被消灭成了热门话题。在5月15日,谷歌AI在博客平台发出一篇文章,正式介绍了一款能保留原声的“同声传译”黑科技,消息一出,迅速席卷网络,为科技发烧友带来了更多曙光,下面,让我们来揭开这个叫做“Translatoron”的神秘面纱。

Translatotron

目前市面常用的语音翻译产品的翻译过程包含三个步骤,首先将语音转换为文字,再由机器将文字转换为目标语言文字,最后将目标语言的文字转化为语音(文字转语音全称Text-To-Speech,也叫TTS)。

而谷歌的Translatotron有很大不同,它通过某种手段(😳)实现了语音到语音的直接转译,避免了上述的三个步骤。除此之外,它还有一些其它的优势,比如更快的推理速度、更容易识别不需要翻译的名称及专业名词等,最牛的是它可以保留原说话人的声音特征,做到原声输出其它语言,幻想一下用自己的声音说出了连本人都听不懂的外语,是不是有点像《流浪地球》中的同声翻译,多刺激啊,在此向大刘致敬!

这就完了?深入一点

其实端到端(😳)的语音翻译在2016年就出现了,当时研究者们发现用“序列到序列模型(😳)”来做“语音到文字”的翻译可行性很高,到了2017年,研究者们证明出它果然很吊,但是这还不够,Translatotron的出现又向大家证明了“序列到序列模型”不仅可以转文字,还可以不依赖任何中间文本,直接帮你转为语音。

上面部分的名词有些含糊不清,这里来解释一下,首先是端到端学习,英文名为end-to-end,它就像一个黑盒子,人们把数据丢进去后只关心结果是否与期望的结果一致,不关心中间的实现过程。这个黑盒子的实现原理是,当结果和期望的结果出现误差后,它会将误差反传回训练模型的每一环节,让它们根据误差来自我调节,直到结果与预期相符为止。

序列到序列模型,英文为Sequence to Sequence(下面简称seq2seq),它是端到端理念的一种实现框架,最早出现于Bengio在2014年的论文,Bengio是蒙特利尔大学的教授,他与另外两位朋友被AI领域的人戏称为“加拿大黑手党”。

跑题了,seq2seq的目的是“将一个领域(比如中文)的序列转化为另一个领域(比如英文)的序列”,它是通过联合两个循环神经网络(RNN)来实现的,而联合的这种结构又被叫做编码-解码(Encoder-Decoder)结构,结构的两端支持多种数据类型,比如文字、语音、图像、视频等,非常适用于机器翻译。

Translatotron正是利用了图像这种数据类型,它通过声谱图作为输入,再生成出目标语言的声谱图,然后通过一个叫做Vocoder的语音编解码器(用于分析和合成用于音频数据压缩,多路复用,语音加密,语音转换等的人类语音信号)将新生成的光谱图转换为时域波形(一种表达信号与时间关系的波浪形状)。另外,它还可以选择使用一个编码器在合成翻译语音中维护原来的语音特征。

这项研究是由谷歌大脑、谷歌翻译和谷歌语音团队共同完成的,虽然目前Translatotron翻译的质量及原声匹配度欠佳,但随着更多数据的训练相信会有非常光明的前景。感兴趣的同学可以去官方博客了解一下。

欢迎关注我们,这里还有更多你不知道又想知道却想不到的知识。


声明:本文是科普性质文章,采用尽可能通俗易懂的方式介绍技术,部分描述可能缺乏专业和准确性,请大家自行分辨,若有错误可以联系我们以便修正。

相关文章:

快看!原来重构如此简单

为程序员爆肝整理的防治脱发大集锦

5G浪潮来袭,程序员在风口中有何机遇

终于改头换面了,微软发布新版命令行应用程序

二十款热门有趣的机器学习开源项目

好看的人都在看,相信你也在看⤵️

0 回复
暂时没有回复,你也许会成为第一个哦