GNN上分利器!与其绞尽脑汁炼丹,不如给你的GNN撒点trick吧

2022 年 6 月 22 日 PaperWeekly


©作者 | esang

研究方向 | 图神经网络



2nd OGB-LSC 已经开启,你还不知道这款 GNN 上分利器吗?



gtrick 是一个简单易用,面向 GNN 的 trick 工具箱:

https://github.com/sangyx/gtrick




idea


这一项目的 idea 来自于对 OGB 榜单的观察,你会发现虽然模型变来变去,但大家上分的 trick 却是有限的。既然如此,为何不直接打包一下这些 trick 做一个方便大家使用的库呢?

此外,GNN 的任务场景比较集中,输入也比较固定,十分适合实现一些外挂式的 trick,不用涉及对模型的修改。基于这样一个想法,gtrick 应运而生。


优点


gtrick 有三个值得称道的优点:

1. 简单易用。如下图所示,只需要添加简单的几行代码即可将一个 trick 引入您的 GNN 模型中,对已有的代码做尽可能少的变动。


▲ 原始模型


▲ 引入trick: Random Feature

2. 每个 Trick 都会被验证。我们会选择数据集对 trick 进行验证,只有能够确实提高模型在测试数据集上表现的 trick 会被收录到 gtrick 中。


▲ 一些收录trick在ogbn-arxiv上的测试结果


3. 同时支持 DGL 与 PyG。我们对每个 trick 同时提供 DGL 与 PyG 两种实现以及相应的示例。无论您喜欢哪款图深度学习库,都可以尝试使用它。


▲ gtrick已实现10个trick并提供相应的示例


此外,值得注意的是,虽然一些 trick 已在 PyG 或 DGL 中实现,这种 trick 我们仍然会纳入 gtrick 中并提供另一个图深度学习库的实现,因为 gtrick 的第一目标是让大家在各种鱼目混珠的模型中了解到有这么一些可以真实有效地提高模型表现的方法存在。



安装


目前 gtrick 已经收录了 10 个针对不同任务的 trick,并且可以通过 pip 直接安装:


pip install gtrick

目前 gtrick 还在开发中,并且各种实现也比较粗糙。您也可以直接将相应 trick 的代码加入到您的项目中。

最后,欢迎使用,欢迎提建议,热烈欢迎点个 star:

https://github.com/sangyx/gtrick



更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

登录查看更多
0

相关内容

【ICML2022】图神经网络的局域数据增强方法
专知会员服务
30+阅读 · 2022年7月24日
专知会员服务
48+阅读 · 2021年6月2日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
79+阅读 · 2020年11月19日
专知会员服务
118+阅读 · 2020年7月22日
新手炼丹经验总结
极市平台
0+阅读 · 2022年7月7日
为什么Pre Norm的效果不如Post Norm?
PaperWeekly
0+阅读 · 2022年5月1日
从ICLR 2022看什么是好的图神经网络?
PaperWeekly
0+阅读 · 2022年2月18日
入群交流一波图神经网络框架 PyG 2.0 吧~
图与推荐
3+阅读 · 2021年11月17日
图神经网络库PyTorch geometric
图与推荐
17+阅读 · 2020年3月22日
PyTorch & PyTorch Geometric图神经网络(GNN)实战
专知
81+阅读 · 2019年6月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年9月5日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
【ICML2022】图神经网络的局域数据增强方法
专知会员服务
30+阅读 · 2022年7月24日
专知会员服务
48+阅读 · 2021年6月2日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
79+阅读 · 2020年11月19日
专知会员服务
118+阅读 · 2020年7月22日
相关资讯
新手炼丹经验总结
极市平台
0+阅读 · 2022年7月7日
为什么Pre Norm的效果不如Post Norm?
PaperWeekly
0+阅读 · 2022年5月1日
从ICLR 2022看什么是好的图神经网络?
PaperWeekly
0+阅读 · 2022年2月18日
入群交流一波图神经网络框架 PyG 2.0 吧~
图与推荐
3+阅读 · 2021年11月17日
图神经网络库PyTorch geometric
图与推荐
17+阅读 · 2020年3月22日
PyTorch & PyTorch Geometric图神经网络(GNN)实战
专知
81+阅读 · 2019年6月1日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员