2021 MAXP大赛 | 图机器学习赛道,奖金40W

2021 年 10 月 10 日 图与推荐

    9月15日,由中国计算机学会高性能计算专业委员会和中国信息通信研究院(以下简称中国信通院)指导, ACM中国高性能计算专家委员会(ACMSIGHPC)和云计算开源产业联盟联合主办,亚马逊云科技和腾讯云支持,阿里云、华为云、UCloud、天翼云等厂商参与的2021全球高性能云计算创新大赛(以下简称2021 MAXP大赛)正式启动。大赛以高性能云计算为主题,旨在进一步推动国内高性能计算的发展,并为参赛者提供了高达40万元的奖金池,还会提供实习机会和权威荣誉证书。

扫码前往大赛官网


其中由亚马逊云科技支持的命题赛道,设计了当前AI领域火热的图机器学习的算法题目《基于DGL框架的图机器学习任务》以及无服务器计算相关的题目《基于Labmda的无服务器计算任务》。


围绕两大技术赛题,亚马逊云科技技术团队将为参赛团队带来共计5讲的系列公开课直播。课程内容包含如:Amazon Lambda、DGL、SageMaker等热门云计算应用的使用实操详解,以及比赛赛题的深度解析与技巧分享。


公开课来到了第二讲,将于10月11日由亚马逊云科技上海人工智能研究院张建博士为大家讲解基于DGL的图机器学习题目以及DGL的相关介绍。在本次课程中张建博士还将分享赛题任务的baseline模型。直播详情见下方海报:


关于 DGL

在2018年,亚马逊在 Neurips 大会上宣布开源的、面向图结构数据的专用深度学习框架。

 

这款框架的开发团队最初主要来自 NYU 和 NYU Shanghai,现由张峥教授带领的亚马逊云科技上海人工智能研究院主要开发。


DGL 是一项具有深远意义的开源项目,它易用性强,采用以“图”为核心的编程抽象,天然接近图算法的语义;具有高性能,使用算子融合等技术,相比同类系统能提速10倍甚至几十倍。借此,企业可以面向复杂的业务场景,提高语音分析、文字分析、时间序列分析等常规工作的效率和精准性;多平台支持,支持多款深度学习框架(PyTorch, MXNet, TensorFlow),用户可以基于此进行大规模图神经网络训练;海量巨图支持,支持多机多卡分布式训练,可以对十亿点规模的图做训练。

 

DGL 希望帮助开发者将图神经网络落地到具体的业务场景中,改善业务模式,创造更多价值。

 

与此同时,DGL 在学术圈具有广泛的影响力,基于 DGL 发表的学术论文有近400篇,包括图灵奖获得者 Yann Lecun 在内的诸多知名学者对项目给予高度评价。DGL 在几乎所有数据挖掘顶级会议上(KDD,WWW,WSDM 等)做过专场实操教学。

 

仅仅在两年时间内,来自学界和业界外部项目贡献者已经增长至140多位。此外,基于 DGL 的软件生态也初具雏形,衍生出面向分子生物,知识图谱,自然语言处理,推荐系统等多款专用AI 工具包。




登录查看更多
0

相关内容

图机器学习(Machine Learning on Graphs)是一项重要且普遍存在的任务,其应用范围从药物设计到社交网络中的友情推荐。这个领域的主要挑战是找到一种表示或编码图结构的方法,以便机器学习模型能够轻松地利用它。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
信通院最新发布!《AI 框架发展白皮书(2022年)》
专知会员服务
88+阅读 · 2022年2月27日
唐杉博士:人工智能芯片发展及挑战
专知会员服务
45+阅读 · 2021年12月4日
2021年中国AI开发平台市场报告
专知会员服务
71+阅读 · 2021年10月26日
专知会员服务
69+阅读 · 2021年7月4日
【斯坦福CS224W】图神经网络工业应用-AliGraph,84页ppt
专知会员服务
45+阅读 · 2021年3月19日
度小满|图机器学习算法工程师招聘
图与推荐
0+阅读 · 2022年2月7日
baseline详解!20万奖金,挑战DGL大规模图数据评测
baseline 详解 | 20万奖金,挑战DGL大规模图数据评测
DGL&NVIDIA | 图机器学习在线讲座
图与推荐
0+阅读 · 2021年9月30日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年7月12日
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
Automated Data Augmentations for Graph Classification
Pre-Training on Dynamic Graph Neural Networks
Arxiv
1+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月17日
Arxiv
0+阅读 · 2022年4月16日
Arxiv
13+阅读 · 2021年6月14日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年7月12日
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员