词向量, BERT, ALBERT, XLNet全面解析(ALBERT第一作者亲自讲解)

2020 年 2 月 12 日 专知

现在是国家的非常时期,由于疫情各地陆续延迟复工,以及各大院校延期开学。作为一家AI教育领域的创业公司,我们希望在这个非常时期做点有价值的事情,并携手共渡难关。在疫情期间,我们决定联合国内外顶尖AI专家一起筹划”共同战疫,贪心在行动“的计划,提供重磅级NLP专题系列直播课程,共五次课程,为期两周时间,供大家在线学习,全程免费。 


🔥 NLP专题课🔥

这次的专题我们选择了近几年NLP领域最火的,你不得不了解的话题 - ”预训练模型“。从简单的Word2Vec,ELMo,GPT,BERT,XLNet到ALBERT,  这几乎是NLP过去10年最为颠覆性的成果。作为一名AI从业者,或者未来想步入AI领域的人士,这是一门必修课。在本次专题活动,我们会由浅入深地按照知识点的学习路径来给大家讲解每个技术背后的原理、细节以及应用。


本次的专题课程,我们也有幸邀请到了多位国内外NLP领域的专家,其中蓝振忠博士作为ALBERT模型的第一作者,会亲自讲述当初对这份工作背后的思考以及技术细节。 希望通过本次活动,给大家带来一些认知上的收获,在疫情期间也可以充实自我,武汉加油,中国加油! 


下面是关于本次专题课程的详细介绍以及安排,你可以通过扫描下方的二维码来进行报名。

报名专题课程请扫描下方二维码
👇👇👇


本次专题活动除了贪心科技的创始人,我们还联合了国内外多位NLP领域专家,包括蓝振忠(ALBERT模型第一作者,Google Lab科学家,卡耐基梅隆大学博士),葛瀚骋(Amazon Alexa部门科学家,Texas A&M大学博士), 袁源(美国微软推荐系统主管,新泽西理工博士)。

对于本次的专题内容,会从词向量,LSTM,Seq2Seq,注意力机制开始逐步讲解到ELMo,Transformer,BERT,XLNET,ALBERT。这是一次体系化的专题课程,区别于常见的公开课,希望通过两周的时间让听众对这个领域有直观的认知。

🔥 前方高能 🔥


史上最干干货!来咯!


本次直播5大主题,为期两周时间


  


报名专题课程请扫描下方二维码
👇👇👇



贪心科技是谁?

 


想深入了解我们,请加入我们的活动,不见不散!大家也可以关注一下“ 贪心科技AI学社 ”公众号获取最新的动态。
登录查看更多
4

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
54+阅读 · 2020年3月4日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
【机器学习课程】Google机器学习速成课程
专知会员服务
162+阅读 · 2019年12月2日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
22+阅读 · 2019年11月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
英伟达Faster Transformer:作者带你揭秘BERT优化
机器之心
13+阅读 · 2019年9月18日
面试题:预训练方法 BERT和OpenAI GPT有什么区别?
七月在线实验室
15+阅读 · 2019年5月15日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
图解2018年领先的两大NLP模型:BERT和ELMo
新智元
9+阅读 · 2018年12月14日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
课程 | 推荐系统资深架构师在这里等你!
AI研习社
3+阅读 · 2017年9月7日
入门 | pytorch 系列课程:火炬上的深度学习
德先生
4+阅读 · 2017年8月20日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
3+阅读 · 2019年9月5日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
12+阅读 · 2019年2月28日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
相关VIP内容
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
54+阅读 · 2020年3月4日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
【机器学习课程】Google机器学习速成课程
专知会员服务
162+阅读 · 2019年12月2日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
22+阅读 · 2019年11月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
英伟达Faster Transformer:作者带你揭秘BERT优化
机器之心
13+阅读 · 2019年9月18日
面试题:预训练方法 BERT和OpenAI GPT有什么区别?
七月在线实验室
15+阅读 · 2019年5月15日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
图解2018年领先的两大NLP模型:BERT和ELMo
新智元
9+阅读 · 2018年12月14日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
课程 | 推荐系统资深架构师在这里等你!
AI研习社
3+阅读 · 2017年9月7日
入门 | pytorch 系列课程:火炬上的深度学习
德先生
4+阅读 · 2017年8月20日
相关论文
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
3+阅读 · 2019年9月5日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
12+阅读 · 2019年2月28日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Top
微信扫码咨询专知VIP会员