BERT一作Jacob Devlin斯坦福演讲PPT:BERT介绍与答疑

2019 年 3 月 7 日 专知
BERT一作Jacob Devlin斯坦福演讲PPT:BERT介绍与答疑

【导读】前不久,斯坦福NLP组,邀请BERT模型的第一作者Jacob Devlin到斯坦福做讲座,Devlin在讲座上详细介绍了BERT的研究过程,并解答了大量关于BERT的问题,小编收集到该PPT, 分享给大家。


 请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“BERT-PPT” 就可以获取该PPT的下载链接~ 


-END-

专 · 知

专知《深度学习:算法到实战》课程全部完成!500+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询《深度学习:算法到实战》课程,咨询技术商务合作~

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
36

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
小贴士
相关论文
Zhenzhong Lan,Mingda Chen,Sebastian Goodman,Kevin Gimpel,Piyush Sharma,Radu Soricut
8+阅读 · 2019年10月30日
Betty van Aken,Benjamin Winter,Alexander Löser,Felix A. Gers
3+阅读 · 2019年9月11日
Ashutosh Adhikari,Achyudh Ram,Raphael Tang,Jimmy Lin
3+阅读 · 2019年8月22日
How to Fine-Tune BERT for Text Classification?
Chi Sun,Xipeng Qiu,Yige Xu,Xuanjing Huang
10+阅读 · 2019年5月14日
Yang Liu
17+阅读 · 2019年3月25日
Chris Alberti,Kenton Lee,Michael Collins
5+阅读 · 2019年3月21日
Qian Chen,Zhu Zhuo,Wen Wang
9+阅读 · 2019年2月28日
Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova
6+阅读 · 2018年10月11日
Antoine J. -P. Tixier
8+阅读 · 2018年8月30日
Matthew E. Peters,Mark Neumann,Mohit Iyyer,Matt Gardner,Christopher Clark,Kenton Lee,Luke Zettlemoyer
7+阅读 · 2018年3月22日
Top