This paper introduces a novel Token-and-Duration Transducer (TDT) architecture for sequence-to-sequence tasks. TDT extends conventional RNN-Transducer architectures by jointly predicting both a token and its duration, i.e. the number of input frames covered by the emitted token. This is achieved by using a joint network with two outputs which are independently normalized to generate distributions over tokens and durations. During inference, TDT models can skip input frames guided by the predicted duration output, which makes them significantly faster than conventional Transducers which process the encoder output frame by frame. TDT models achieve both better accuracy and significantly faster inference than conventional Transducers on different sequence transduction tasks. TDT models for Speech Recognition achieve better accuracy and up to 2.82X faster inference than RNN-Transducers. TDT models for Speech Translation achieve an absolute gain of over 1 BLEU on the MUST-C test compared with conventional Transducers, and its inference is 2.27X faster. In Speech Intent Classification and Slot Filling tasks, TDT models improve the intent accuracy up to over 1% (absolute) over conventional Transducers, while running up to 1.28X faster.


翻译:标题翻译:通过联合预测标记和持续时间实现高效的序列转换 摘要翻译:本文介绍了一个新颖的Token-and-Duration Transducer(TDT)结构,它用于序列到序列的任务。TDT通过联合预测标记和其持续时间,比传统的RNN-Transducer模型更准确且速度更快。在不同的序列转换任务中,TDT模型均能显著提高准确性和推理速度。TDT模型在语音识别任务中的效果尤为明显,其准确性比RNN-Transducer提高,并且速度快达2.82倍。在语音翻译、语音意图分类和槽填充任务中,TDT模型也能提高准确性和速度。在MUST-C数据集上,TDT模型的预测准确性比传统的Transducer模型高出1个BLEU点,且预测速度快达2.27倍。

0
下载
关闭预览

相关内容

【MIT博士论文】可部署的鲁棒文本分类器
专知会员服务
25+阅读 · 2023年5月4日
CVPR2022 | 一种适用于密集场景的渐进式端到端目标检测器
【AAAI 2022】用于文本摘要任务的序列级对比学习模型
专知会员服务
24+阅读 · 2022年1月11日
EMNLP 2021 | 学习改写非自回归机器翻译的翻译结果
专知会员服务
14+阅读 · 2021年12月25日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
命名实体识别新SOTA:改进Transformer模型
AI科技评论
17+阅读 · 2019年11月26日
论文浅尝 | 使用循环神经网络的联合事件抽取
开放知识图谱
25+阅读 · 2019年4月28日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
基于PyTorch/TorchText的自然语言处理库
专知
27+阅读 · 2019年4月22日
在Python中使用SpaCy进行文本分类
专知
24+阅读 · 2018年5月8日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月1日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员