Aspect-based sentiment analysis involves the recognition of so called opinion target expressions (OTEs). To automatically extract OTEs, supervised learning algorithms are usually employed which are trained on manually annotated corpora. The creation of these corpora is labor-intensive and sufficiently large datasets are therefore usually only available for a very narrow selection of languages and domains. In this work, we address the lack of available annotated data for specific languages by proposing a zero-shot cross-lingual approach for the extraction of opinion target expressions. We leverage multilingual word embeddings that share a common vector space across various languages and incorporate these into a convolutional neural network architecture for OTE extraction. Our experiments with 5 languages give promising results: We can successfully train a model on annotated data of a source language and perform accurate prediction on a target language without ever using any annotated samples in that target language. Depending on the source and target language pairs, we reach performances in a zero-shot regime of up to 77% of a model trained on target language data. Furthermore, we can increase this performance up to 87% of a baseline model trained on target language data by performing cross-lingual learning from multiple source languages.


翻译:以外观为基础的情绪分析涉及对所谓的见解目标表达式(OTEs)的承认。为了自动提取 OTEs,通常使用监督的学习算法,这些算法在手动附加说明的语体上受过培训。因此,创建这些Cororora是一个劳动密集型的,因此,通常只有非常狭窄的语言和领域才能获得足够庞大的数据集。在这项工作中,我们提出一种零点点点滴的跨语言方法,用于提取见解目标表达式,从而解决特定语言缺乏附加说明的数据的问题。我们利用多种语言的多语种嵌入系统,在不同语言中共享一个共同的矢量空间,并将这些嵌入OTE的动态神经网络结构。我们用5种语言进行的实验产生了有希望的结果:我们可以成功地培训一个源语言附加说明的数据模型,并在不使用目标语言的任何附加说明样本的情况下对目标语言进行准确的预测。根据源和目标语言配对,我们从目标语言数据培训的模型的零点化系统达到77%。此外,我们可以通过跨语言学习多种语言,将这一基准模型的绩效提高到87%。

1
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
专知会员服务
59+阅读 · 2020年3月19日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
25+阅读 · 2018年11月1日
自然语言处理顶会EMNLP2018接受论文列表!
专知
87+阅读 · 2018年8月26日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
3+阅读 · 2019年3月1日
Arxiv
3+阅读 · 2017年8月15日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
专知会员服务
59+阅读 · 2020年3月19日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Top
微信扫码咨询专知VIP会员