岗位推荐 | 微软AI & Research Group招聘自然语言处理AI算法研究实习生

2019 年 6 月 5 日 PaperWeekly


PaperWeekly 致力于推荐最棒的工作机会,精准地为其找到最佳求职者,做连接优质企业和优质人才的桥梁。 


如果你需要我们来帮助你推广实习机会或全职岗位,请添加微信号「pwbot02」



微软 AI & Research Group 现招募自然语言处理 AI 算法研究实习生 2-3 名,主要研究方向为语义理解、知识图谱、问答系统、智能对话等。


工作地点:北京市海淀区丹棱街5号微软大厦


实习岗位:


  • 自然语言处理AI算法研究员

  • 自然语言处理AI算法工程师


自然语言处理AI算法研究员


 招聘性质:实习 


岗位职责


1. 调研 NLP 前沿研究进展、业界领先的 AI 算法和解决方案,并且针对产品实际问题进行深入研究; 

2.有机会与微软研究院的资深 NLP 研究员一起工作,进行 NLP 前沿 AI 算法的研究,撰写高水平论文; 

3. 能与微软产品开发团队进行良好的沟通、合作,将研究成果进行有效的产品转化。


岗位要求


1. 具有计算机、电子工程、自动化、数学等相关专业背景的博士生; 

2. 对自然语言处理、深度学习、问答系统、对话系统、知识图谱等有良好研究背景者优先; 

3. 一周至少 3 天,实习 3 个月以上 (优先考虑 6 个月以上的全职、长期实习); 

4. 编程基础扎实,熟悉常用深度学习框架、算法者优先; 

5. 自我驱动,有良好的发现问题、解决问题和独立思考的能力,有优秀的团队合作意识。


自然语言处理AI算法工程师


 招聘性质:实习 


岗位职责


1. 利用海量搜索数据,参与系统核心 AI 算法的设计、研究与实现;

2. 针对产品的实际问题,调研业界领先的算法和解决方案,并针对实际问题进行实现和改进;

3. 参与大规模产品数据的分析,发掘实际问题并提出切实可行的解决方法;4. 配合产品完成业务相关的需求及指标。


岗位要求


1. 具有计算机、电子工程、自动化、数学等相关专业背景的硕士或博士生; 

2. 对自然语言理解、问答系统、搜索系统、深度学习、数据挖掘等技术有相关技术背景者优先; 

3. 一周至少 3 天,实习 3 个月以上 (优先考虑 6 个月以上的全职、长期实习); 

4. 编程基础扎实,熟悉常用深度学习框架、算法者优先; 

5. 热爱产品,喜欢将研究与产品需求结合、理论结合实际应用者优先; 

6. 自我驱动,有良好的发现问题、解决问题的能力,有优秀的团队合作意识。


联系方式


• 简历投递:AI_NLP@microsoft.com

• 邮件及简历命名格式:PaperWeekly-姓名-学校-毕业时间-岗位

• 在邮件标题中注明暗号 PaperWeekly ,能大大提升面试邀约率哟~


本文由“壹伴编辑器”提供技术支持

🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


登录查看更多
0

相关内容

自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【清华大学】低资源语言:回顾综述和未来的挑战,14页pdf
【课程推荐】普林斯顿陈丹琦COS 484: 自然语言处理课程
专知会员服务
82+阅读 · 2019年12月11日
Arxiv
14+阅读 · 2020年2月6日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Arxiv
3+阅读 · 2018年12月18日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关VIP内容
【清华大学】低资源语言:回顾综述和未来的挑战,14页pdf
【课程推荐】普林斯顿陈丹琦COS 484: 自然语言处理课程
专知会员服务
82+阅读 · 2019年12月11日
相关论文
Arxiv
14+阅读 · 2020年2月6日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Arxiv
3+阅读 · 2018年12月18日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年7月31日
Top
微信扫码咨询专知VIP会员