图表示学习工具包CogDL + TensorFlow开源项目,期待你的参与

2019 年 12 月 24 日 AINLP
深度传送门报道

编辑:深度传送门

加“CogDL+TensorFlow交流群“请添加助手:deepdeliver(备注:姓名-学校/公司-方向)

近日,清华大学知识工程研究室(KEG)推出了一个大规模图表示学习工具包 CogDL,可以让研究者和开发者更加方便地训练和对比用于节点分类、链路预测以及其他图任务的基准或定制模型。 该工具包集成了 Deepwalk、LINE、node2vec、GraRep、NetMF、NetSMF、ProNE 等非图神经网络和 GCN、GAT、GraphSage、DrGCN、NSGCN、GraphSGAN 等图神经网络基准模型的实现。
清华大学计算机科学与技术系长聘教授、计算机系副主任、知识工程研究院教师唐杰发微博介绍 CogDL 项目。
  • 项目页面:http://keg.cs.tsinghua.

    edu.cn/cogdl/index.html

  • GitHub 链接:https://github.com/

    THUDM/cogdl/

项目介绍


CogDL当前采用PyTorch实现,考虑到当前工业界TensorFlow仍然占主导地位且有很多工业界场景需要使用CogDL中包含的各大算法的需求,经过与唐杰老师的线下沟通获得同意,我们发起了一个CogDL-TensorFlow的开源项目。


项目的初衷是将CogDL里面的各个算法使用TensorFlow来复现并且使用统一的接口流程来封装,方便大家在工业界各场景中接入对比各自的效果。我们计划召集一批感兴趣且乐于参与贡献的小伙伴,拆分任务列表且各自认领任务,以周为单位推进项目进展,欢迎对此项目感兴趣想参与贡献的小伙伴加入我们的交流群。


欢迎大家前往下面的GitHub地址进行学习、star以及fork。CogDL工具箱后续会增加更多新的算法,本仓库也将持续同步更新、迭代。

https://github.com/imsheridan/CogDL-TensorFlow

对项目感兴趣希望加入“CogDL+TensorFlow交流群”参与贡献的朋友,请加助手:deepdeliver。

(备注:姓名+学校/公司+方向)


CogDL工具箱介绍


与其他图表示学习工具包相比,CogDL 具有以下特点:

  • 稀疏性:在具有数千万节点的大规模网络上实现快速网络嵌入;

  • 任意性:能够处理属性化、多路和异构等不同图结构的网络;

  • 并行处理:在多个 GPU 上实现不同种子和模型的并行训练并自动输出结果表格;

  • 可扩展性:轻松添加新的数据集、模型和任务并在所有现有的模型/数据集上测试。


CogDL 图表示学习工具包的整体框架。




本文转载自公众号:深度传送门,作者:深度传送门


推荐阅读


动手学深度学习 + TF2.0开源项目,不容错过


神奇的Embedding


征稿启示| 让更多的NLPer看到你的文章


我们建了一个免费的知识星球:AINLP芝麻街,欢迎来玩,期待一个高质量的NLP问答社区


AINLP-DBC GPU 云服务器租用平台建立,价格足够便宜


关于AINLP


AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLP君微信(id:AINLP2),备注工作/研究方向+加群目的。


登录查看更多
1

相关内容

图表示学习是2018年火爆全球的一个深度学习方向,从以 Line, meta-path 等为首的节点表示学习,到以 GCN,GraphSAGE,为首的图卷积方法,在到近期的以 GraphVAE 为首的生成图模型,图表示学习方向的文章如过江之鲫。
专知会员服务
109+阅读 · 2020年3月12日
近期必读的12篇KDD 2019【图神经网络(GNN)】相关论文
专知会员服务
62+阅读 · 2020年1月10日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
Github热门图深度学习(GraphDL)源码与框架
新智元
21+阅读 · 2019年3月19日
比DGL快14倍:PyTorch图神经网络库PyG上线了
机器之心
7+阅读 · 2019年3月9日
Github 项目推荐 | 用 TensorFlow 实现的模型集合
AI研习社
5+阅读 · 2018年2月14日
Arxiv
35+阅读 · 2020年1月2日
Arxiv
13+阅读 · 2019年11月14日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Learning Implicit Fields for Generative Shape Modeling
Arxiv
10+阅读 · 2018年12月6日
Arxiv
12+阅读 · 2018年9月15日
VIP会员
Top
微信扫码咨询专知VIP会员