面试题:预训练方法 BERT和OpenAI GPT有什么区别?

2019 年 5 月 15 日 七月在线实验室


BERT和OpenAI GPT有什么区别?


解析


1.GPT在BooksCorpus(800M单词)训练;BERT在BooksCorpus(800M单词)和维基百科(2,500M单词)训练


2.GPT使用一种句子分隔符([SEP])和分类符词块([CLS]),它们仅在微调时引入;BERT在预训练期间学习[SEP],[CLS]和句子A/B嵌入


3.GPT用一个批量32,000单词训练1M步;BERT用一个批量128,000单词训练1M步


4.GPT对所有微调实验使用的5e-5相同学习率;BERT选择特定于任务的微调学习率,在开发集表现最佳



想从传统IT行业转行AI?

担心转行失败?

再也不用怕了!

就业班来了

学员都在3个月内找到满意工作



依据个人情况定制化教学

四大方向量身定制

定制学习路线

名企面试官亲自辅导面试


分享课程拿现金红包!

领的人越多,你拿的越多!

快来扫它




他用机器学习减肥20斤!程序员必看,你想不到的机器学习妙用

毕业/转行就拿50万+年薪!15位同学经验分享,他们怎么做到的?


福利时间

后台回复:“100”   免费领【机器学习面试100题

后台回复:“干货” 免费领【全体系人工智能学习资料

后台回复:“领资料” 免费领【NLP工程师必备干货资料


“阅读原文”你来决定未来的内容
你在看吗?
登录查看更多
15

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
【机器学习课程】Google机器学习速成课程
专知会员服务
161+阅读 · 2019年12月2日
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
面试题:文本摘要中的NLP技术
七月在线实验室
15+阅读 · 2019年5月13日
对标Bert?刷屏的GPT 2.0意味着什么
AI100
4+阅读 · 2019年2月16日
GLUE排行榜上全面超越BERT的模型近日公布了!
机器之心
9+阅读 · 2019年2月13日
深度学习面试100题(第81-85题)
七月在线实验室
16+阅读 · 2018年8月6日
深度学习面试100题(第76-80题)
七月在线实验室
6+阅读 · 2018年8月3日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
5+阅读 · 2019年10月31日
Arxiv
6+阅读 · 2019年8月22日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
21+阅读 · 2018年8月30日
VIP会员
相关资讯
面试题:文本摘要中的NLP技术
七月在线实验室
15+阅读 · 2019年5月13日
对标Bert?刷屏的GPT 2.0意味着什么
AI100
4+阅读 · 2019年2月16日
GLUE排行榜上全面超越BERT的模型近日公布了!
机器之心
9+阅读 · 2019年2月13日
深度学习面试100题(第81-85题)
七月在线实验室
16+阅读 · 2018年8月6日
深度学习面试100题(第76-80题)
七月在线实验室
6+阅读 · 2018年8月3日
相关论文
Arxiv
13+阅读 · 2020年4月12日
Arxiv
5+阅读 · 2019年10月31日
Arxiv
6+阅读 · 2019年8月22日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
21+阅读 · 2018年8月30日
Top
微信扫码咨询专知VIP会员