Rapidly developed neural models have achieved competitive performance in Chinese word segmentation (CWS) as their traditional counterparts. However, most of methods encounter the computational inefficiency especially for long sentences because of the increasing model complexity and slower decoders. This paper presents a simple neural segmenter which directly labels the gap existence between adjacent characters to alleviate the existing drawback. Our segmenter is fully end-to-end and capable of performing segmentation very fast. We also show a performance difference with different tag sets. The experiments show that our segmenter can provide comparable performance with state-of-the-art.


翻译:快速开发的神经模型在中国的单词分割(CWS)中取得了具有竞争力的成绩,但大多数方法都遇到了计算效率低下的情况,特别是由于模型复杂程度的提高和变慢的解析器,特别是长的句子。本文提出了一个简单的神经分离器,直接标出相邻字符之间存在的差距,以缓解现有的缺陷。我们的分解器是完全端端对端的,能够非常迅速地进行分解。我们还展示了不同标签组的性能差异。实验显示,我们的分解器可以提供最先进的类似性能。

1
下载
关闭预览

相关内容

《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
5+阅读 · 2018年5月10日
Arxiv
5+阅读 · 2018年5月5日
Arxiv
7+阅读 · 2018年1月30日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员