Nowadays, scene text recognition has attracted more and more attention due to its various applications. Most state-of-the-art methods adopt an encoder-decoder framework with attention mechanism, which generates text autoregressively from left to right. Despite the convincing performance, the speed is limited because of the one-by-one decoding strategy. As opposed to autoregressive models, non-autoregressive models predict the results in parallel with a much shorter inference time, but the accuracy falls behind the autoregressive counterpart considerably. In this paper, we propose a Parallel, Iterative and Mimicking Network (PIMNet) to balance accuracy and efficiency. Specifically, PIMNet adopts a parallel attention mechanism to predict the text faster and an iterative generation mechanism to make the predictions more accurate. In each iteration, the context information is fully explored. To improve learning of the hidden layer, we exploit the mimicking learning in the training phase, where an additional autoregressive decoder is adopted and the parallel decoder mimics the autoregressive decoder with fitting outputs of the hidden layer. With the shared backbone between the two decoders, the proposed PIMNet can be trained end-to-end without pre-training. During inference, the branch of the autoregressive decoder is removed for a faster speed. Extensive experiments on public benchmarks demonstrate the effectiveness and efficiency of PIMNet. Our code will be available at https://github.com/Pay20Y/PIMNet.


翻译:目前,场景文本的识别因其各种应用而吸引了越来越多的关注。 多数最先进的方法都采用了带有关注机制的编码器解码器框架( PIMNet ) 来平衡网络的准确性和效率。 具体而言, PIMNet 采用了一个平行的注意机制来预测文本的速度更快, 并且一个迭代生成机制来使预测更加准确。 在每次循环中,都会充分探索上下文信息。 为了改进对隐性层的学习,我们利用在培训阶段的模拟学习,在培训阶段将采用更多的自动解析器,而平行的解析网络( PIM Net ) 将平衡准确性和效率。 具体地说, PIM 使用一个平行的注意机制来预测文本更快, 迭代代生成机制来使预测更加准确。 在每次循环中, 要充分探索背景信息。 为了改进对隐性层的学习,我们将利用在培训阶段的模拟学习过程, 在那里会采用更多的自动解析式解析器, 平行的解析器将覆盖着我们隐藏的IM 。 在隐藏的图层中, 将共享的底部的底部的底部, 。

1
下载
关闭预览

相关内容

【DeepMind】强化学习教程,83页ppt
专知会员服务
147+阅读 · 2020年8月7日
Python数据分析:过去、现在和未来,52页ppt
专知会员服务
99+阅读 · 2020年3月9日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
德先生
53+阅读 · 2019年4月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Arxiv
0+阅读 · 2021年10月31日
Local Relation Networks for Image Recognition
Arxiv
4+阅读 · 2019年4月25日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
6+阅读 · 2018年4月3日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关VIP内容
【DeepMind】强化学习教程,83页ppt
专知会员服务
147+阅读 · 2020年8月7日
Python数据分析:过去、现在和未来,52页ppt
专知会员服务
99+阅读 · 2020年3月9日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
德先生
53+阅读 · 2019年4月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员