Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

百度语音技术重要进展:基于历史信息抽象的流式截断conformer建模SMLTA2

机器之心发布

机器之心编辑部

Transformer 模型用于在线语音识别任务中面临多个难题,百度语音新发布的SMLTA2克服了这些障碍。

10 月 15 至 18 日,2021 年第十六届全国人机语音通讯学术会议(NCMMSC2021)在江苏徐州举行。作为我国人机语音通讯领域研究中最具有权威性的学术会议之一,NCMMSC 受到国内语音领域广大专家、学者和科研工作者的关注。

其中,百度语音团队对外重磅发布基于历史信息抽象的流式截断 conformer 建模技术——SMLTA2,解决了 Transformer 模型用于在线语音识别任务中面临的问题,引发瞩目。

自 2012 年以来,百度语音识别技术一直不断深入探索、创新突破,引领着行业发展的技术路径。2018 年,百度语音发布的 Deep Peak 2 模型突破了沿用十几年的传统模型,大幅提升各场景下识别准确率。2019 年初,百度语音技术团队公布在线语音领域全球首创的流式多级的截断注意力模型 SMLTA(Streaming Multi-Layer Truncated Attention), 相对准确率提升 15%。如今,随着 SMLTA2 的发布,百度语音实现了在线语音识别历史上的又一次重大突破。

突破!百度发布基于历史信息抽象的流式截断conformer建模SMLTA2

百度语音识别技术发展路线图

Transformer 模型用于在线语音识别领域的三大障碍

人工智能的终极目标是让机器具备人类智慧,帮助人类实现各种任务的分析和决策。近年来,随着深度学习技术的不断发展,特别是 Transformer 模型结构的提出,为通用人工智能技术的实现指出了一种可行的方向。OpenAI 的研究人员根据 Transformer 模型的特点,提出了一种预训练语言模型(Generative Pre-trained Transformer,GPT)。通过不断提升模型的容量和数据的规模,GPT 模型从 GPT-1 逐步迭代到 GPT-3,模型的能力也在稳定提升。在特定任务上,GPT-3 模型的性能已经接近甚至超过了人类的平均水平。Transformer 模型在 NLP 领域的成功应用,显示出 Transformer 模型结构的建模潜力,激发了研究人员把该模型用于诸如语音识别和图像识别等领域的巨大热情。但是到目前为止,还没有看到 Transformer 结构在在线语音识别系统的成功应用。

在线语音识别任务相比文本任务有其独有的特点。从输入数据的长度上看,文本数据的长度一般在几十到几百之间,而语音数据的长度经常是在一千帧以上。对于一些重要的长语音识别任务,音频数据的长度甚至达到了一万帧以上。区别于 LSTM 模型的逐帧递推机制,Transformer 模型的核心采用 self-attention(自相关)的机制。由于语音识别任务的语音长度远远长于文本任务的字数,使得以自相关操作为基础的 Transformer 模型在用于在线语音识别时,存在如下难以逾越的障碍:

“计算爆炸”问题。由于 Transformer 模型的 Encoder 各层都需要做自相关。从理论上说,在中间语音识别结果需要实时展现的场合,这个自相关操作随着每一帧新的语音信息的输入,需要和全部历史输入的语音帧进行自相关运算。面对超长的音频数据,每次输入都循环往复的进行自相关运算,极大地消耗了系统的计算资源。

“存储爆炸”问题。由于 Transformer 模型的 Encoder 的每一层都需要保留整句话的特征编码后,才能进行后续网络层中做自相关操作。为了把网络做的更深更大,通常会引入残差结构。在这种情况下,保留神经网络各层输入就成为训练和解码时候必须的要求。而随着网络层数的加深,网络隐层维度的增大以及语音长度的增加,对训练和解码时的显存消耗造成巨大压力。

“焦点丢失”问题。超长的音频数据大大增加了 Transformer 模型的建模难度。区别于 NLP 任务,语音任务的特点是很短的声音信息夹杂在较长的背景噪音或者静音中。这些语音中的噪音或者静音虽然不包含语言信息,但是会干扰注意力机制,导致注意力难以聚焦到有效的包含语言信息的声音特征上,最终影响系统的建模精度。

此外,在线语音识别服务还需要流式解码。也就是说在语音输入的同时就要启动音频解码,话音一落立刻就能拿到整句的识别结果。而且在说话的过程中,屏幕上实时显示语音识别的中间文字。如果等音频完全输入后才开始解码,会延长用户的等待时间,而且看不到输入的中间文字,严重影响用户的使用体验。

百度于 2019 年初在业界首先提出的流式多级截断注意力 SMLTA 模型,成功解决了端到端注意力模型的流式建模问题。SMLTA1 主要采用的是 LSTM 模型结构。LSTM 模型的时序递推的方式造成了该模型在建模能力和训练效率上都弱于 Transformer 模型。但是,Transformer 模型应用于在线流式语音识别任务时,需要同时解决流式解码和上述 “计算爆炸”、“存储爆炸”以及 “焦点丢失” 三大问题。

百度语音新突破:基于历史信息抽象的流式截断 conformer 建模

通过对 Transformer 模型的深入研究,百度的研究人员在 SMLTA1 的基础上,进一步提出了基于历史特征抽象的流式语音识别建模方法 SMLTA2。SMLTA2 模型不仅保留了 SMLTA1 流式、多级、截断的特点,还通过引入基于 Attention 的历史特征抽象以及从 Decoder 到 Encoder 各层的注意力机制,解决了 Transformer 模型用于在线语音识别任务中面临的问题。其核心结构和历史特征抽象的原理如下图所示。

突破!百度发布基于历史信息抽象的流式截断conformer建模SMLTA2

SMLTA2 模型结构和历史特征抽象原理

由于卷积增强(Convolution Augmented)的 Conformer 模型同时具有 Transformer 模型的全局建模和卷积模型的局部建模的能力,SMLTA2 采用 Conformer 模型作为其主要结构。从图中可以看到,SMLTA2 首先根据 CTC 模型的尖峰信息对连续语音特征进行截断,然后在截断的特征片段上利用 Conformer Encoder 对输入特征逐层编码,最后使用 Transformer Decoder 得到相应的识别结果。在对当前建模单元编码时,历史的语音特征片段被逐层抽象成固定长度的特征向量,然后和当前的语音特征片段一起进行注意力建模。这里的历史特征抽象是指根据 Decoder 输出的隐含特征对当前语音特征片段的 Encoder 各层进行相关性建模。

通过 CTC 特征截断和历史特征抽象的方式,SMLTA2 在保证建模精度的同时,克服了传统 Transformer 模型在长音频识别上面临的 “计算爆炸” 和“存储爆炸”问题。并且通过流式动态截断的方式,把注意力缩小到一个合适的范围,进一步解决了 Transformer 模型在语音识别任务的 “焦点丢失” 问题。

为了解决 Transformer 模型应用于流式语音识别任务的各种问题,其他研究学者采用对 Encoder 各层进行启发式的截断和抽象。Google 的 Transformer Transducer 模型对 Encoder 的上下文限制了固定长度范围,可以看作在输入特征上进行加窗截断的方法。Facebook 的记忆增广(Augmented Memory)方法把音频特征切分为等长的片段,然后通过平均池化等方法得到固定长度的向量。这种截断和抽象是先验进行的,最终的识别结果无法反馈信息给这种截断和抽象过程。而且在此基础上得到的特征向量只是一种数学上的简化,其本身并没有实际的物理含义。SMLTA2 通过特征抽象得到的特征向量对应着一个输出的文字信息。这些特征向量拼接起来组成的历史特征向量,实际上形成了一种声学特征层面的语言模型,进而有效提升 SMLTA2 模型的建模能力。

目前几乎所有的基于 Encoder-Decoder 结构的端到端模型在建模时,Encoder 和 Decoder 之间的关系是 Encoder 的输出是 Decoder 的输入,Decoder 的解码过程并不和 Encoder 内部各层的编码信息发生任何联系。Decoder 只能在端到端联合建模的训练过程,通过误差传递的方式间接地影响 Encoder 的编码过程。尽管这种传统的 Encoder-Decoder 协同工作的方式更简单,但是却存在 Decoder 对 Encoder 内部各层信息的反馈和使用不够直接的问题。

通过前文分析,Transformer 模型应用于语音识别领域,必须对历史信息进行必要的截断和近似。如果不引入从 Decoder 到 Encoder 各层的反馈机制,而简单武断地对 Encoder 的各层信息进行截断或者近似,难免发生信息丢失,影响建模能力。SMLTA2 通过 Decoder 到 Encoder 各层的注意力特征选择机制来引入反馈,使得最外层识别结果信息可以直接作用于编码器内部的每一层的编码过程,通过历史信息抽象充分提取有效特征信息,显著改善了 Transformer 模型从 NLP 领域应用到语音识别领域面临的各种问题。SMLTA2 的这种全新的端到端建模方法,是对传统 Encoder-Decoder 结构的端到端建模的结构性创新。

语音识别模型的迭代和工业化落地

从基于 LSTM 和 CTC 的上下文无关音素组合建模 Deep Peak 2 到流式多级截断注意力 SMLTA1,再到基于历史特征抽象的流式语音识别建模 SMLTA2,百度一直坚持在语音识别模型上的创新迭代。

多年来,百度语音不仅在技术路线上持续引领行业,还一直坚持在产品上可使用、让用户真正可体验。百度的上一代流式多级的截断注意力模型 SMLTA1 就成功上线语音输入法全线产品,服务中国数亿用户,是世界范围内已知的第一次大规模部署的用于在线语音输入的注意力模型。

此次发布的 SMLTA2 依旧保持了流式识别的特点,具备工业产品落地的能力。目前在实验室内,模拟线上环境进行测试,SMLTA2 在同等计算资源消耗的情况下,相对于上一代技术错误率降低大约 12%。SMLTA2 的提出,是百度在语音识别领域的又一技术突破,也是百度 AI 技术继续领跑行业的重要技术创新。期待 SMLTA2 的产品上线应用,实现语音识别准确率的再度提升,给用户带来全新的交互体验。

产业百度语音识别SMLTA2
暂无评论
暂无评论~