NeurIPS论文分享会日程出炉!明天直播间不见不散!

2021 年 11 月 17 日 微软研究院AI头条



编者按:想了解计算机前沿研究?想走近顶会论文的详细细节?想聆听研究员们的精彩见解?就在明天(11月18日下午13:30 - 17:30,NeurIPS 2021 论文分享会重磅来袭!了解更多信息,前往《11.11福利来袭!NeurlPS 2021论文打包分享,直播间见!》查看分享会详细指南哦。


NeurIPS 全称为 Conference on Neural Information Processing Systems,即神经信息处理系统大会,是机器学习和计算神经科学领域的顶级国际会议。NeurIPS 2021 中,微软亚洲研究院共有33篇论文被接受,研究主题涵盖人工智能的不同领域。


微软亚洲研究院始终关注计算机领域的前沿进展,并以论文分享会的形式为大家带来值得关注的前沿研究,促进计算机各大领域的进步。本系列论文分享会将关注计算机领域的各大顶会,邀请论文作者以线上直播的形式与大家分享并探讨论文的研究问题与研究设计。


本次 NeurIPS 2021 论文分享会为大家挑选了其中有代表性的12篇论文,并邀请到相关作者来为大家做论文内容的深入解读。快来查收这份精心准备的分享会日程,锁定“微软中国视频中心”直播间,我们明天下午13:30 - 17:30不见不散哦。


论文分享会日程


13:30 - 14:10


Causal ML Session

分享人:刘畅,微软亚洲研究院研究员


论文题目:学习用于分布外预测的因果语义表示

分享亮点:第一个有因果可识别性理论保证的单源分布外预测方法以及第一个展现因果可识别性对单源分布外预测的好处的理论。

论文题目:用于解决模仿学习中因果混淆问题的察觉对象的正则化方法

分享亮点:提出了一个察觉对象的正则化方法用来处理模仿学习中的因果混淆问题,所提方法基于一个新颖的想法同时也便于实现,并且超过了已有方法的表现。


14:10 - 14:30


论文题目:如何使用 Transformer 模型在图表示任务中胜过 GNN

分享人:郑书新,微软亚洲研究院主管研究员


分享亮点:继自然语言处理和计算机视觉之后,Transformer 模型在图学习领域又取得突破性进展。本文提出的 Graphormer 模型证明了标准的 Transformer 模型可以在图表示学习中表现优异,且大幅超过最好的 GNN 模型。Graphormer 模型在多个国际竞赛中获得冠军,如 KDD Cup 2021, Open Catalyst Challenge 等。

14:30 - 14:50


论文题目:条件分布对生成式建模的效用

分享人:刘畅,微软亚洲研究院研究员


分享亮点:全新的深度生成模型框架:无需设定隐变量上的先验分布。方便了很多应用中的建模,并可更好地生成数据和提取表示;以及精准严格的理论:发现并回答了反直觉的事实,解决了已有结论的漏洞。

14:50 - 15:10


论文题目:视频中零标签的物体检测和分割的学习

分享人:武智融,微软亚洲研究院主管研究员


分享亮点:本文提出了首个不需要微调,不需要任何人工监督,零标签实现物体检测和分割的通用预训练模型。

15:10 - 15:30


论文题目:基于上下文的视频压缩

分享人:李嘉豪,微软亚洲研究院主管研究员


分享亮点:我们为基于深度学习的视频压缩提出一个从残差编码到条件编码的范式转换,从而显著减少视频码率。 

15:30 - 15:50


论文题目:上亿量级规模高效向量近似最近邻搜索系统SPANN

分享人:陈琪,微软亚洲研究院主管研究员


分享亮点:该论文提出了非常简单、实用且高效的小内存-大硬盘混合型大规模向量近似最近邻方法,在当前最先进技术的基础上取得了两倍多的显著性能提升,并且非常容易被扩展应用到分布式搜索中进一步提升可扩展性。

15:50 - 16:10


论文题目:任务导向的无监督域自适应

分享人:魏国强,微软亚洲研究院实习生


分享亮点:本文提出了一种非常简单有效的基于梯度的特征对齐方法,能避免域自适应方法中无效的特征对齐方式,实现分类任务为导向的特征对齐,使得模型在新的数据分布上也会有很好的性能。

16:10 - 16:30


论文题目:去栅格化的矢量图识别

分享人:蒋忻洋,微软亚洲研究院主管研究员


分享亮点:本文首次提出了矢量图的识别问题,首次提出一种可以直接在矢量图进行目标检测的模型(无需转换到位图),大幅提升效果和计算效率。

16:30 -16:50


论文题目:自我挖掘:视频问答中对样本进行孪生采样和推理

分享人:余伟江,微软亚洲研究院实习生


分享亮点:在有限的多模态时序数据中,教会机器学会剖析、挖掘数据的内部价值。

16:50 - 17:10


论文题目:用于文本图表示学习的 GNN 嵌套 Transformer 模型:GraphFormers

分享人:杨俊涵,微软亚洲研究院实习生


分享亮点:本文提出了一个 Transformer 与 GNN 的紧耦合模型,相对原来的松耦合模型,在图文本表示学习上的效果有明显提升。

17:10 - 17:30


论文题目:“预测+优化”中含软约束问题的代理目标函数求解框架

分享人:闫洁,微软亚洲研究院主管研究员


分享亮点:在“预测+决策”框架内首次解决目标函数中含软约束项的问题,理论上证明约束参数非负情况下线性规划和二次规划可以转换为无约束问题并给出了最优解关于参数的梯度解析表达式。



直播信息


直播时间:2021年11月18日13:30-17:30


直播地址:B 站账号“微软中国视频中心”直播间


扫码直达直播间

扫码加入微信交流群










你也许还想看





登录查看更多
0

相关内容

神经信息处理系统年会(Annual Conference on Neural Information Processing Systems)的目的是促进有关神经信息处理系统生物学,技术,数学和理论方面的研究交流。核心重点是在同行会议上介绍和讨论的同行评审新颖研究,以及各自领域的领导人邀请的演讲。在周日的世博会上,我们的顶级行业赞助商将就具有学术意义的主题进行讲座,小组讨论,演示和研讨会。星期一是教程,涵盖了当前的问询,亲和力小组会议以及开幕式演讲和招待会的广泛背景。一般会议在星期二至星期四举行,包括演讲,海报和示范。 官网地址:http://dblp.uni-trier.de/db/conf/nips/
NeurIPS 20201接收论文列表发布,2334篇论文都在这了!
专知会员服务
37+阅读 · 2021年11月4日
专知会员服务
41+阅读 · 2020年12月1日
近期必读的六篇 NeurIPS 2020【因果推理】相关论文和代码
专知会员服务
71+阅读 · 2020年10月31日
近期必读的六篇 ICML 2020【因果推理】相关论文
专知会员服务
87+阅读 · 2020年9月8日
CVPR 2022论文分享会 | 共赴计算机视觉论文分享盛宴!
微软研究院AI头条
0+阅读 · 2022年4月15日
你在直播间里买过什么东西吗?
ZEALER订阅号
0+阅读 · 2021年12月20日
开播倒计时|DevFest 2021 京津冀直播专场 就在明天!
谷歌开发者
0+阅读 · 2021年12月18日
11.11福利来袭!NeurlPS 2021论文打包分享,直播间见!
微软研究院AI头条
1+阅读 · 2021年11月11日
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
12+阅读 · 2021年11月1日
Arxiv
13+阅读 · 2021年6月14日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
12+阅读 · 2021年11月1日
Arxiv
13+阅读 · 2021年6月14日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
22+阅读 · 2018年8月30日
Top
微信扫码咨询专知VIP会员