Artificial reverberation (AR) models play a central role in various audio applications. Therefore, estimating the AR model parameters (ARPs) of a target reverberation is a crucial task. Although a few recent deep-learning-based approaches have shown promising performance, their non-end-to-end training scheme prevents them from fully exploiting the potential of deep neural networks. This motivates to introduce differentiable artificial reverberation (DAR) models which allows loss gradients to be back-propagated end-to-end. However, implementing the AR models with their difference equations "as is" in the deep-learning framework severely bottlenecks the training speed when executed with a parallel processor like GPU due to their infinite impulse response (IIR) components. We tackle this problem by replacing the IIR filters with finite impulse response (FIR) approximations with the frequency-sampling method (FSM). Using the FSM, we implement three DAR models -- differentiable Filtered Velvet Noise (FVN), Advanced Filtered Velvet Noise (AFVN), and Feedback Delay Network (FDN). For each AR model, we train its ARP estimation networks for analysis-synthesis (RIR-to-ARP) and blind estimation (reverberant-speech-to-ARP) task in an end-to-end manner with its DAR model counterpart. Experiment results show that the proposed method achieves consistent performance improvement over the non-end-to-end approaches in both objective metrics and subjective listening test results.


翻译:人工回校模型在各种音频应用程序中发挥着核心作用。 因此, 估算目标回校模型的AR模型参数(ARPs)是一项关键任务。 尽管最近一些基于深层次学习的方法显示有良好的业绩, 但它们的非端对端培训计划阻止它们充分利用深层神经网络的潜力。 这促使它们引入不同的人工回校模型(DAR), 使损失梯度能够反向再分析最终对端。 然而, 在深层次学习框架中, 应用有差异的AR模型“ 不” 等式来“ 不” 严重阻塞与GPU等平行处理器执行的培训速度, 原因是它们具有无限的脉冲反应(IIR)组成部分。 我们解决这个问题的方法是用有限的脉冲反应(FIR)来取代IR过滤器(FSM) 。 我们运用了三种DAR模型 -- -- 不同过滤的Silveridal-Reabil- NS(FVVN) 、 高级过滤VVVN(AVN) 和反馈的RED-R- Ral- Rest Ana- Restal rois- trisal 都显示每个A- Rest- trisal- AR- trisal- trisal- trisal- trisal- trisal- trislational- trisal- trisal- trisal- trisal- trisal- trislup- trisal- trisal- trisal- trisal- trisal- trisal- trisal- trisal- trisal- trisal- trisal- trisal- trislup to to trisal- to to to to to to to to tox) 任务任务, 。

0
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
127+阅读 · 2020年5月14日
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
10+阅读 · 2021年11月3日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
6+阅读 · 2020年10月8日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
6+阅读 · 2018年10月3日
Arxiv
9+阅读 · 2018年3月10日
VIP会员
相关资讯
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
10+阅读 · 2021年11月3日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
6+阅读 · 2020年10月8日
Arxiv
7+阅读 · 2020年6月29日
Arxiv
6+阅读 · 2018年10月3日
Arxiv
9+阅读 · 2018年3月10日
Top
微信扫码咨询专知VIP会员