角逐最强图神经网络!第二届OGB-LSC@NeurIPS 2022开赛!

2022 年 5 月 26 日 学术头条


由于在实际应用中普遍使用图结构化数据,图上的机器学习近年来引起了极大的关注。现代应用领域包括网络规模的社交网络,推荐系统,超链接的网络文档,知识图谱,以及通过不断增长的科学计算生成的分子模拟数据。这些领域涉及具有数十亿个边的大规模图或具有数百万个图的数据集。

大规模部署准确的图机器学习算法将产生巨大的现实应用影响,比如实现更好的推荐结果,更优化的Web文档搜索排序,更全面的知识图谱以及基于机器学习的精确药物和材料发现。但是,目前的大多数图机器学习模型都是在极小的数据集上开发和评估的。



OGB-LSC 2022

2021 年,由斯坦福、清华等组成的 OGB 团队在 KDD Cup 2021 开展了一个大规模图机器学习的开放比赛,即 OGB 大规模图机器学习挑战赛(OGB-LSC),以鼓励开发适用于大规模图数据集的最新图机器学习和深度学习模型。经过全球 500 多个顶尖高校、企业和研究实验室的激烈竞争,百度凭借飞桨图学习框架 PGL 一路过关斩将,最终在全部三个赛道包揽了两冠一亚,微软亚洲研究院获得一项冠军,DeepMind 获得一亚一季。


在今年的 NeurIPS 2022,OGB 团队围绕 OGB-LSC 数据集组织了第二届 OGB-LSC 大规模图机器学习挑战赛。重要的是,组织方根据从 KDD Cup 2021 中吸取的经验,更新了部分数据集,从而使该年大赛的图数据集更具挑战性和现实性。


OGB-LSC 2022 提供了三个规模空前的图数据集,分别涵盖了节点、链接和整图级别的预测任务。下面提供了三个 OGB-LSC 图数据集的说明性概述。


· MAG240M is a heterogeneous academic graph, and the task is to predict the subject areas of papers situated in the heterogeneous graph (node classification).

· WikiKG90Mv2 is a knowledge graph, and the task is to impute missing triplets (link prediction).

· PCQM4Mv2 is a quantum chemistry dataset, and the task is to predict an important molecular property, the HOMO-LUMO gap, of a given molecule (graph regression).


其中数据集包含两种测试集:test-dev 和 test-challenge。此次 NeurIPS 挑战赛将使用 test-challenge 来进行结果评测。test-dev 则用于全年的公开排行榜的评测

(https://ogb.stanford.edu/docs/lsc/leaderboards/)


具体的 OGB-LSC 大赛资料请见:

https://ogb.stanford.edu/neurips2022/。

SUMMER COMING

· 所有截止日期均为太平洋夏令时间晚上 11:59。

· 所有数据集共享相同的截止日期。



2022 年 5 月 24 日:OGB-LSC 2022 开始

比赛开始、开放团队注册。欢迎参加比赛!



2022 年 9 月 2 日:团队报名截止

每个团队都必须注册才能有资格参加后续的测试提交。



2022 年 11 月 1 日:Test-challenge提交截止

每个团队提交其最终测试预测,将根据 test-challenge 数据进行评估。



2022 年 11 月 4 日:获奖者通知

组织方会单独通知 NeurIPS 2022 OGB-LSC 大规模图机器学习挑战赛的获胜者,包括每个数据集的前 3 名获奖者(共 9 名获奖者)。



2022 年 11 月 25 日:获奖者提交代码和报告

 

获奖者在提供公开的 GitHub 代码和技术报告后确定。



2022 年 11 月 30 日:获奖者公告

获奖者连同他们的代码和技术报告一起公开宣布。

OGB-LSC 团队和联系方式

团队邮箱:ogb-lsc@cs.stanford.edu。


有关数据集的讨论或一般问题,请使用OGB的Github Discussions(https://github.com/snap-stanford/ogb/discussions)。


有关代码的问题,请使用OGB的 Github issues:

https://github.com/snap-stanford/ogb/issues。


订阅OGB的Google group:

https://groups.google.com/g/open-graph-benchmark

让您随时了解 OGB 的任何更改和更新。



更多详情信息,可访问(或点击文末【阅读原文】)以下链接查看:

https://ogb.stanford.edu/neurips2022/


登录查看更多
1

相关内容

【NeurIPS 2021】 基于置信度校正的可信图神经网络
专知会员服务
20+阅读 · 2021年12月26日
专知会员服务
19+阅读 · 2021年10月3日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
80+阅读 · 2020年11月19日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
【NeurIPS 2019 Apple成果汇总】《Apple at NeurIPS 2019》
专知会员服务
10+阅读 · 2019年12月6日
H&M个性化商品推荐竞赛来袭!
机器学习与推荐算法
0+阅读 · 2022年2月22日
2022暑期实习第二批问卷及笔试明日开启!
微软招聘
0+阅读 · 2022年2月10日
WSDM'22 | 大规模动态图链路预测挑战赛,奖励丰厚
图与推荐
1+阅读 · 2021年11月12日
WSDM22 | 用户留存预测挑战赛开启
图与推荐
1+阅读 · 2021年11月4日
ICML'21 | 五篇图神经网络论文精选
图与推荐
1+阅读 · 2021年10月15日
2021 MAXP大赛 | 图机器学习赛道,奖金40W
图与推荐
0+阅读 · 2021年10月10日
Kaggle 新赛:第二届 YouTube-8M 视频理解挑战赛
AI研习社
10+阅读 · 2018年5月26日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Representation Learning for Dynamic Hyperedges
Arxiv
0+阅读 · 2022年7月27日
VIP会员
相关VIP内容
【NeurIPS 2021】 基于置信度校正的可信图神经网络
专知会员服务
20+阅读 · 2021年12月26日
专知会员服务
19+阅读 · 2021年10月3日
专知会员服务
37+阅读 · 2020年11月24日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
80+阅读 · 2020年11月19日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
【NeurIPS 2019 Apple成果汇总】《Apple at NeurIPS 2019》
专知会员服务
10+阅读 · 2019年12月6日
相关资讯
H&M个性化商品推荐竞赛来袭!
机器学习与推荐算法
0+阅读 · 2022年2月22日
2022暑期实习第二批问卷及笔试明日开启!
微软招聘
0+阅读 · 2022年2月10日
WSDM'22 | 大规模动态图链路预测挑战赛,奖励丰厚
图与推荐
1+阅读 · 2021年11月12日
WSDM22 | 用户留存预测挑战赛开启
图与推荐
1+阅读 · 2021年11月4日
ICML'21 | 五篇图神经网络论文精选
图与推荐
1+阅读 · 2021年10月15日
2021 MAXP大赛 | 图机器学习赛道,奖金40W
图与推荐
0+阅读 · 2021年10月10日
Kaggle 新赛:第二届 YouTube-8M 视频理解挑战赛
AI研习社
10+阅读 · 2018年5月26日
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员