面试中,XGBoost、Transformer、BERT问什么最多?都在这里!

2020 年 7 月 17 日 CVer
在当今的人工智能时代,相信大部分人都会关注深度学习技术,但请 千万不要忽视对传统机器学习技术的理解。 实际上,真正去从事AI工作的时候就会发现,对传统机器学习的依赖还是巨大的。如逻辑回归、随机森林、GBDT、XGBoost、SVM等模型仍然在非常多的应用中占有着不可忽视的地位。

《XGBoost》 作为近几年最为火热的技术之一,受到了业界广泛的应用。但相比其他的技术,全面理解XGBoost的技术细节还是有一定的挑战的。


《Attention, Transformer, BERT》,”预训练模型“作为NLP过去10年最为颠覆性的成果,小组学习中将重点讲解Transformer模型和它的核心Self-Attention机制,同时也会对BERT模型做详细的讲解。


《FM、基于知识图谱的推荐方法》,FM作为业界标配的存在,不得不说确实应用广泛,近几年,基于知识图谱的推荐方法越来越流行,小组学习中将重点要学习的是基于图的推荐方法--水波扩散法。


为了帮助大家能够对其有个更深入的理解这些内容,贪心学院特此组织了这次的学习小组计划,深入浅出讲解每个算法模型的每一个技术细节。对于想了解算法底层的朋友们来说,参加这次活动绝对有很大收获! 感兴趣的朋友们可以扫一下下方二维码报名参加,不见不散! 

免费 报名参加 学习小组
请扫描下方二维码
👇👇👇


免费 报名参加 学习小组
请扫描下方二维码
👇👇👇

登录查看更多
1

相关内容

xgboost的全称是eXtreme Gradient Boosting,它是Gradient Boosting Machine的一个C++实现,并能够自动利用CPU的多线程进行并行,同时在算法上加以改进提高了精度。
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
98+阅读 · 2020年8月30日
【实用书】Python编程,140页pdf
专知会员服务
41+阅读 · 2020年8月20日
【Google】多模态Transformer视频检索,Multi-modal Transformer
专知会员服务
101+阅读 · 2020年7月22日
专知会员服务
44+阅读 · 2020年3月6日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
注意力机制介绍,Attention Mechanism
专知会员服务
166+阅读 · 2019年10月13日
【必修】16个机器学习算法推导及项目案例 XGBoost | GBDT ......
BERT系列文章汇总导读
AINLP
12+阅读 · 2019年8月19日
听说你还没读过 Bert 源码?
AINLP
7+阅读 · 2019年8月7日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
今日面试题分享:为什么xgboost要用泰勒展开,优势在哪里?
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
11+阅读 · 2019年1月8日
10个项目给你答案,19年NLP为什么这么骚
PaperWeekly
34+阅读 · 2018年12月29日
详细解读谷歌新模型 BERT 为什么嗨翻 AI 圈
人工智能头条
10+阅读 · 2018年10月25日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Bidirectional Attention for SQL Generation
Arxiv
4+阅读 · 2018年6月21日
Arxiv
26+阅读 · 2017年12月6日
VIP会员
相关VIP内容
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
98+阅读 · 2020年8月30日
【实用书】Python编程,140页pdf
专知会员服务
41+阅读 · 2020年8月20日
【Google】多模态Transformer视频检索,Multi-modal Transformer
专知会员服务
101+阅读 · 2020年7月22日
专知会员服务
44+阅读 · 2020年3月6日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
注意力机制介绍,Attention Mechanism
专知会员服务
166+阅读 · 2019年10月13日
相关资讯
【必修】16个机器学习算法推导及项目案例 XGBoost | GBDT ......
BERT系列文章汇总导读
AINLP
12+阅读 · 2019年8月19日
听说你还没读过 Bert 源码?
AINLP
7+阅读 · 2019年8月7日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
今日面试题分享:为什么xgboost要用泰勒展开,优势在哪里?
BERT大火却不懂Transformer?读这一篇就够了
大数据文摘
11+阅读 · 2019年1月8日
10个项目给你答案,19年NLP为什么这么骚
PaperWeekly
34+阅读 · 2018年12月29日
详细解读谷歌新模型 BERT 为什么嗨翻 AI 圈
人工智能头条
10+阅读 · 2018年10月25日
相关论文
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Bidirectional Attention for SQL Generation
Arxiv
4+阅读 · 2018年6月21日
Arxiv
26+阅读 · 2017年12月6日
Top
微信扫码咨询专知VIP会员