漫画解读ERNIE:能和BERT一较高下的知识增强语义表示模型

2019 年 7 月 2 日 PaperWeekly











—————  五分钟后 —————






ERNIE 是百度开源深度学习平台飞桨(PaddlePaddle)推出的知识增强语义表示模型,通过海量数据建模词、实体及实体关系。相较于 BERT 学习原始语言信号,ERNIE 直接对先验语义知识单元进行建模,增强了模型语义表示能力。简单来说,ERNIE 采用的 Masked Language Model 是一种带有先验知识 Mask 机制。

 

除此之外,ERNIE 采用多源训练数据,利用高性能分布式深度学习平台飞桨完成预训练。

 

ERNIE 经过 1500 万篇文章,700 万对话的训练,尤其在语言推断、语义相似度、命名实体识别、情感分析、问答匹配等自然语言处理(NLP)各类中文任务上都有不俗的表现。下面我们一起来看看 ERNIE 的应用效果:


  • 完型填空



  • 相似度



  • 情感分类

 



了解ERNIE更多信息,点击阅读原文或查看以下链接:

http://github.com/PaddlePaddle/LARK/tree/develop/ERNIE



 



长按识别下方二维码

免费申请Tesla V100算力卡

配合PaddleHub让模型原地起飞




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


▽ 点击 | 阅读原文 | 了解ERNIE

登录查看更多
8

相关内容

【DeepMind推荐】居家学习的人工智能干货资源大全集
专知会员服务
107+阅读 · 2020年6月27日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
30+阅读 · 2019年10月16日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
一文读懂最强中文NLP预训练模型ERNIE
AINLP
24+阅读 · 2019年10月22日
BERT系列文章汇总导读
AINLP
12+阅读 · 2019年8月19日
我跑了ERNIE和BERT两个模型,结果出乎意料......
PaperWeekly
21+阅读 · 2019年6月24日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
5+阅读 · 2019年9月25日
Arxiv
11+阅读 · 2019年6月19日
VIP会员
Top
微信扫码咨询专知VIP会员