哈工大SCIR三篇长文被AAAI-19录用

2018 年 11 月 1 日 哈工大SCIR

AAAI-19 (Thirty-Third AAAI Conference on Artificial Intelligence) 将于2019年1月27日至2月1日在美国夏威夷举行。AAAI是人工智能领域的顶级国际会议,CCF A类会议,每年举办一次。今年AAAI-19大会共计收到7700个有效投稿,其中7095篇论文进入到评审环节,最终有1150篇论文被大会录用,总录用率仅为16.2%,创历史新低。


哈尔滨工业大学社会计算与信息检索研究中心共有3篇长文被AAAI-19录用,下面是论文列表及介绍:


 A Neural Approach for Verb Phrase Ellipsis Resolution

作者:张伟男,张岳,刘元兴,狄东林,刘挺


动词短语省略(VPE)是一种语言现象,其中一些动词短语作为句法成分被省略并且通常由辅助动词引用。先前的工作主要集中在手动构建从辅助词、句法树等中提取的特征。然而,先前的工作并没有很好地解决特征表示的优化,连续特征的有效性和特征的自动组合。在本文中我们尝试探索神经模型对VPE消解任务(包括管道和端到端过程)的优势,并比较统计模型和神经模型之间的差异。我们使用两种神经模型(MLP和Transformer)分别进行VPE检测和消解的子任务。实验结果表明,神经模型在子任务和端到端结果方面均优于最先进的基线。


 Exploring Answer Stance Detection with Recurrent Conditional Attention

作者:袁建华,赵妍妍,秦兵,许静芳


从社区问答QA对中提取人们对问题的观点立场倾向性是一个有意思的问题。不同于以往的立场分析任务,我们这里的target不是给定的实体(entity)或者声明(claim),而是整个问题,因而更难去建模依赖问题的(target-dependent)回答句表示。为此,我们提出一种循环条件注意力结构(Recurrent Conditional Attention),在循环阅读QA对的过程中,提炼Q、A语义表示,挖掘Q-A之间的相互依赖关系,逐步推敲获得真实的观点倾向。在人工收集标注的社区问答立场倾向性数据集上(搜狗公司提供),相比四个强基线模型,我们的RCA模型在macro-f1值平均提高2.90%,在micro-f1值上平均提高2.66%。


 Gaussian Transformer: A Lightweight Approach for Natural Language Inference

作者:郭茂盛,张宇,刘挺


自然语言推理 (Natural Language Inference, NLI) 是一个活跃的研究领域,许多基于循环神经网络 (RNNs),卷积神经网络 (CNNs),self-attention 网络 (SANs) 的模型为此提出。尽管这些模型取得了不错的表现,但是基于RNNs的模型难以并行训练,基于 CNNs 的模型需要耗费大量的参数,基于 self-attention 的模型弱于捕获文本中的局部依赖。为了克服这个问题,我们向 self-attention 机制中引入高斯先验 (Gaussian prior) 来更好的建模句子的局部结构。接着,我们为NLI任务提出了一个高效的、不依赖循环或卷积的网络结构,名为 Gaussian Transformer。它由用于建模局部和全局依赖的编码模块,用于收集多步推理的高阶交互模块,以及一个参数轻量的对比模块组成。试验结果表明,我们的模型在 SNLI 和 MultiNLI 数据集上取得了当前最高的成绩,同时大大减少了参数数量和训练时间。此外,在 HardNLI 数据集上的试验表明我们的方法较少受到标注的人工痕迹 (Annotation artifacts) 影响。


同时,哈工大讯飞联合实验室(公众号:哈工大讯飞联合实验室)的一篇长文被AAAI-19录用,祝贺!


 Convolutional Spatial Attention Model for Reading Comprehension with Multiple-Choice Questions

作者:陈致鹏,崔一鸣,马文涛,王士进,胡国平


选择型的机器阅读理解需要机器阅读一个篇章并根据问题从多个候选答案中选出正确答案。本文中,我们提出一种基于卷积空间注意力的模型(Convolutional Spatial Attention,CSA)用来解决中国初高中英文阅读理解选择题。该模型可以充分的提取篇章、问题以及选项之间的互信息,然后使用互信息增强各自的向量空间表示。除此之外,为了结合不同向量空间的注意力信息,我们使用不同的卷积窗口动态的从不同的空间注意力矩阵上抽取特征。实验结果表明,CSA模型在RACE(中国初高中英文阅读理解数据)和SemEval-2018 Task11(国际语义评测比赛中的阅读理解任务)两个任务都取得了显著性能提升,证明了我们的方法的创新性和有效性。


本期责任编辑:刘一佳

本期编辑:吴    洋




“哈工大SCIR”公众号

主编:车万翔

副主编: 张伟男,丁效

责任编辑: 张伟男,丁效,刘一佳,崔一鸣

编辑: 李家琦,吴洋,刘元兴,蔡碧波,孙卓,赖勇魁


长按下图并点击 “识别图中二维码”,即可关注哈尔滨工业大学社会计算与信息检索研究中心微信公共号:”哈工大SCIR” 。

登录查看更多
2

相关内容

AAAI是人工智能领域的顶级国际会议,每年吸引世界各国数千名学者共同探讨人工智能发展前沿。 国际人工智能协会,前身为美国人工智能协会,目前是一个非盈利的学术研究组织,致力于推动针对智能行为本质的科学研究。
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
60+阅读 · 2020年1月18日
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
98+阅读 · 2020年1月12日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
哈工大SCIR两篇论文被IJCAI 2019录用
哈工大SCIR
7+阅读 · 2019年5月11日
哈工大SCIR多名师生参加COLING 2018
哈工大SCIR
10+阅读 · 2018年9月1日
计算所网络数据实验室5篇论文被ACL2018、IJCAI-ECAI 2018录用
中国科学院网络数据重点实验室
9+阅读 · 2018年5月3日
我中心3篇长文被ACL 2018录用
哈工大SCIR
5+阅读 · 2018年4月24日
我中心6篇长文被IJCAI-ECAI 2018录用
哈工大SCIR
9+阅读 · 2018年4月17日
Arxiv
6+阅读 · 2020年4月14日
Arxiv
4+阅读 · 2019年12月2日
Arxiv
5+阅读 · 2019年10月31日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
6+阅读 · 2018年11月1日
VIP会员
相关VIP内容
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
60+阅读 · 2020年1月18日
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
98+阅读 · 2020年1月12日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
相关资讯
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
哈工大SCIR两篇论文被IJCAI 2019录用
哈工大SCIR
7+阅读 · 2019年5月11日
哈工大SCIR多名师生参加COLING 2018
哈工大SCIR
10+阅读 · 2018年9月1日
计算所网络数据实验室5篇论文被ACL2018、IJCAI-ECAI 2018录用
中国科学院网络数据重点实验室
9+阅读 · 2018年5月3日
我中心3篇长文被ACL 2018录用
哈工大SCIR
5+阅读 · 2018年4月24日
我中心6篇长文被IJCAI-ECAI 2018录用
哈工大SCIR
9+阅读 · 2018年4月17日
相关论文
Arxiv
6+阅读 · 2020年4月14日
Arxiv
4+阅读 · 2019年12月2日
Arxiv
5+阅读 · 2019年10月31日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
6+阅读 · 2018年11月1日
Top
微信扫码咨询专知VIP会员