直播预告 | 北京大学张文涛:大规模图机器学习的可扩展性

2021 年 12 月 13 日 PaperWeekly


「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果。我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义,从而产生更大的价值。

本期 AI Drive,我们邀请到北京大学-腾讯协同创新实验室博士生张文涛,为大家在线解读其发表在 NeurIPS 2021 的最新研究成果:Node Dependent Local Smoothing for Scalable Graph Learning对本期主题感兴趣的小伙伴,12 月 14 日(本周二)晚 7 点,我们准时相约 PaperWeekly 直播间。



直播信息




图神经网络(GNN)已经成为解决图问题的重要算法,并受到了学术界和工业界的广泛关注。但在工业界的大规模数据集上使用 GNN 还是存在着以下两个问题:1)可扩展性低:受单机存储开销以及分布式通讯开销限制,大多数现有GNN算法很难部署在超大图上;2)灵活性差:大多数 GNN 强行约束非线性变换深度恒等于特征传播深度,也没有考虑节点的特异性。


我们提出节点自适应局部平滑(Node Dependent Local Smoothing,NDLS)来解决这两个问题。基于特征和标签平滑,NDLS 可以和任意机器学习模型组合(如 GNNs, 树模型和 MLP),并在模型预测性能、效率和可扩展性等方面都取得显著优势。


论文标题:

Node Dependent Local Smoothing for Scalable Graph Learning


论文链接:

https://arxiv.org/abs/2110.14377


本次分享的具体内容有:  
  • 研究背景:大规模图学习

  • 相关研究:分布式训练,图神经网络,图模型简化和图采样

  • 提出的方法:NDLS [NeurIPS 21 Spotlight]

  • 实验结果:指标对比,消融实验和可解释性

  • 总结:优势分析和应用前景



嘉宾介绍


 张文涛 / 北京大学博士生 


张文涛,北京大学-腾讯协同创新实验室 2020 级博士研究生。他以第一作者在 SIGMOD、VLDB、KDD 和 NeurIPS 等刊物上发表了 10 余篇论文,也是分布式机器学习系统 Angel、自动化机器学习系统 MindWare 和黑盒优化系统 OpenBox 的开发者之一。在校期间,他曾连续三年获得北京大学国家奖学金和廖凯原奖学金、Apple PhD Fellowship(国内 1 人,全球 15 人),北京市三好学生和三好学生标兵等 10 多项奖学金和荣誉称号。



直播地址 & 交流群




本次直播将在 PaperWeekly 视频号和 B 站直播间进行,扫描下方海报二维码点击阅读原文即可免费观看。线上分享结束后,嘉宾还将在直播交流群内实时 QA,在 PaperWeekly 微信公众号后台回复「AI Drive」,即可获取入群通道


视频号直播间:
扫描下方二维码关注 PaperWeekly 视频号,第一时间获取开播提醒。



B 站直播间:

https://live.bilibili.com/14884511



合作伙伴







🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·


登录查看更多
0

相关内容

张文涛,北京焱融科技存储架构师,毕业于华中科技大学,曾就职于IBM和金山云。2016年加入北京焱融科技,先后负责私有云存储和ServerSAN的产品设计和研发。目前专注在容器存储和高性能分布式存储领域,主要负责YRCloudFile的功能研发和性能调优工作。拥有多年的分布式存储研发经验,对分布式存储的架构设计和优化有深入理解,尤其是在海量文件存储方面,做了大量的优化工作。
专知会员服务
22+阅读 · 2021年6月23日
【图与几何深度学习】Graph and geometric deep learning,49页ppt
【IJCAI】大规模可扩展深度学习,82页ppt
专知会员服务
27+阅读 · 2021年1月10日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
25+阅读 · 2020年10月13日
专知会员服务
47+阅读 · 2020年9月20日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员