中文关系抽取任务旨在识别中文文本中实体对的语义关系。基于预训练语言模型的方法达到了当前最优 结果。得益于大规模的训练语料,预训练语言模型能够学习到训练语料中的语言知识,提高了中文关系抽取模型 的泛化能力,但其庞大的参数规模需要消耗大量的存储和计算资源。为此,该文提出了基于语言模型增强的中文 关系抽取方法,该方法基于多任务学习范式,促进轻量级的中文关系抽取模型学习预训练语言模型中的语言知识。 该文在三个中文关系抽取数据集上的实验结果表明了基于语言模型增强的中文关系抽取方法的有效性,仅使用预 训练语言模型1%的参数即可达到其95%的性能。

成为VIP会员查看完整内容
53

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
基于知识图谱的仿真想定智能生成方法
专知会员服务
90+阅读 · 2023年6月4日
基于多智能体深度强化学习的体系任务分配方法
专知会员服务
133+阅读 · 2023年5月4日
图嵌入模型综述
专知会员服务
81+阅读 · 2022年1月17日
深度学习中的单阶段小目标检测方法综述
专知会员服务
42+阅读 · 2021年11月23日
细粒度图像分类的深度学习方法
专知会员服务
40+阅读 · 2021年10月18日
专知会员服务
64+阅读 · 2021年7月21日
专知会员服务
117+阅读 · 2021年4月29日
专知会员服务
112+阅读 · 2020年12月9日
专知会员服务
44+阅读 · 2020年11月13日
深度学习目标检测方法综述
专知会员服务
259+阅读 · 2020年8月1日
【NeurIPS2022】分布外序列事件预测:因果处理
【NeurIPS 2022】扩散模型的深度平衡方法
专知
0+阅读 · 2022年11月6日
基于模型的强化学习综述
专知
18+阅读 · 2022年7月13日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
深度学习时代的目标检测算法
炼数成金订阅号
39+阅读 · 2018年3月19日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年10月27日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
VIP会员
相关VIP内容
基于知识图谱的仿真想定智能生成方法
专知会员服务
90+阅读 · 2023年6月4日
基于多智能体深度强化学习的体系任务分配方法
专知会员服务
133+阅读 · 2023年5月4日
图嵌入模型综述
专知会员服务
81+阅读 · 2022年1月17日
深度学习中的单阶段小目标检测方法综述
专知会员服务
42+阅读 · 2021年11月23日
细粒度图像分类的深度学习方法
专知会员服务
40+阅读 · 2021年10月18日
专知会员服务
64+阅读 · 2021年7月21日
专知会员服务
117+阅读 · 2021年4月29日
专知会员服务
112+阅读 · 2020年12月9日
专知会员服务
44+阅读 · 2020年11月13日
深度学习目标检测方法综述
专知会员服务
259+阅读 · 2020年8月1日
相关资讯
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员