Deep neural networks (DNNs) based automatic speech recognition (ASR) systems are often designed using expert knowledge and empirical evaluation. In this paper, a range of neural architecture search (NAS) techniques are used to automatically learn two types of hyper-parameters of state-of-the-art factored time delay neural networks (TDNNs): i) the left and right splicing context offsets; and ii) the dimensionality of the bottleneck linear projection at each hidden layer. These include the DARTS method integrating architecture selection with lattice-free MMI (LF-MMI) TDNN training; Gumbel-Softmax and pipelined DARTS reducing the confusion over candidate architectures and improving the generalization of architecture selection; and Penalized DARTS incorporating resource constraints to adjust the trade-off between performance and system complexity. Parameter sharing among candidate architectures allows efficient search over up to $7^{28}$ different TDNN systems. Experiments conducted on the 300-hour Switchboard corpus suggest the auto-configured systems consistently outperform the baseline LF-MMI TDNN systems using manual network design or random architecture search after LHUC speaker adaptation and RNNLM rescoring. Absolute word error rate (WER) reductions up to 1.0\% and relative model size reduction of 28\% were obtained. Consistent performance improvements were also obtained on a UASpeech disordered speech recognition task using the proposed NAS approaches.


翻译:在本文件中,使用一系列神经结构搜索技术,自动学习两种新型超参数的最先进因素延迟延迟时间神经网络(TDNNS):一) 左和右螺旋背景抵消;二) 在每个隐隐层中,基于基于U深心声识别(ASR)的基于自动深心电网络(DNNS)系统基于自动语音识别(ASR)系统,这些系统往往使用专家知识和经验评价来设计。在本文件中,使用一系列神经结构搜索技术,自动学习两种类型的超参数,即最先进因素因素因素延迟时间神经网络(TDNNS):一) 左侧和右相交点环境抵消;和二) 在每个隐隐性层进行瓶颈线性投影,其中包括:每个隐蔽层中以内方基于瓶颈内方基于瓶颈线投射,包括DARTS方法将建筑选择与无衣的MMI(LF-MMI) TDNNNNT培训; Gumbel-Softmaxx-Sofafax 和编程系统在使用LF-MIM-MIM-MANS 的降低工作压、LLLLLLLS、LLLLLLLLLLLLLLLLLL 的降低、A、A、A、ALLLLL AS、ALLLLL 降低的系统,在使用L 的A、LLL 的A、A、LLLLLLLLLLLL 的A、A、LLLLLLLLLLLLLLLLLLL 的A、A、A、A、LLLLLLLLLLLLLLLLLLLL的L 的LL的A、A、A、A、A、A、LLLLLLLL的A、LLLLLLLLLA、LLLLLLLLLLLLL的A、L的A、A、L的A、A、L的A、L的A、L的A、L的A、L的A、L的A、L的A、L的A、LLL的A、L的A、LLLLLLLL的A、L的

0
下载
关闭预览

相关内容

一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
170+阅读 · 2020年5月6日
专知会员服务
59+阅读 · 2020年3月19日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
11+阅读 · 2019年5月6日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
Neural Architecture Search From Fréchet Task Distance
Arxiv
6+阅读 · 2020年10月8日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关VIP内容
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
170+阅读 · 2020年5月6日
专知会员服务
59+阅读 · 2020年3月19日
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
11+阅读 · 2019年5月6日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
Top
微信扫码咨询专知VIP会员