Node2Vec:万物皆可Embedding

2021 年 10 月 14 日 图与推荐


《Node2vec: Scalable Feature Learning for Networks》 KDD 2016,图神经网络经典必读第一篇,平衡同质性和结构性 。



2021年年初,图神经网络一举成为热门研究主题。AAAI2021年,录用了165篇论文。


那我为什么推荐Node2vec,而不是这165篇论文?


因为Node2vec作为图神经网络的经典必读篇目,应用也非常广泛,很多比赛分享中都有它的影子。


同时Node2vec是GNN图游走类算法中非常重要的一种,也是图神经网络算法工程师面试必备的知识点。


虽然网上有很多解读Nde2vec的文章和视频,及复现解。但自己复现总是会碰到很多的问题,如果跟随资深的GNN算法工程师,手把手教你一起复现,可以事半功倍。


这里推荐深度之眼 《 Node2vec 复现班 》

↓ 扫描上方二维码加班主任 ↓

↓回复:GNN  免费参加 ↓


1

GNN高手方法论,教你系统学习论文


深度之眼好评度超高的导师 结合自己工作及学习经验,并配合深度之眼教研团的打磨,总结出一条GNN基石论文 的 习路径



2

实时直播+录播  夯实Node2vec


Step1:系统了解图神经网络技术演化路径及发展历史


Step2:精讲GNN开山之作 —Node2vec

Node2vec作为图神经网络最著名的模型之一,你可以掌握:

1. Node2vec模型实现,掌握图神经网络最基本的节点分类问题。

2. 一种非常高效的alias sampling采样方法。

3. 掌握random walk生成训练语料的方法以及基于pytorch的Node2vec实现。


1套系统的方法论:2步走教你啃透Node2vec


Step1:深挖研究背景 


提纲挚领,从4大维度介绍论文,深入讲解论文发表的研究背景、成果及意义,介绍论文中取得的核心成果,对比解决同一问题,已有解决方法和论文中提出的新的解决方法的优缺点,熟悉论文的整体思路和框架,建立对本篇论文的一个概貌性认识。


Step2:死磕算法模型


老师会重点讲解论文中的模型原理,深入拆解模型结构,对关键公式逐步推导,让你了解算法每一个因子是如何对结果产生影响的,掌握实验手段及结果,老师会帮你拎出论文中的关键点、创新点和启发点,节约你自己摸索的时间。


3

高手伴学,实现高效学习


· 3天高质量社群服务,导师全程陪伴

· 实时直播+录播,带你学习正确论文精读方法论

· 100+学员同群交流,学习经验up up⬆⬆⬆

· 助教24小时答疑,再也不怕debug

· 专属班主任私信督学,治疗学习拖延症


重点是,如果你不知道怎么学习,购买课程后,班主任1v1给你制定学习计划!


4

完课即赠价值298元学习大礼包


为了激励大家完成学习,我们还准备了价值298元的算法工程师面试锦囊。只要完成全部课程的学习,你就能私信班主任获取!



5

学员好评,真香!


左右滑动查看更多


这一次,我为粉丝们申请了20免费福利名额:


3天带你复现Node2vec

购买即赠《效率提升3倍的Paper阅读方法》


↓ 扫描上方二维码加班主任 ↓

↓回复:GNN  免费参与 ↓

如果你不知道怎么读论文、不知道如何正确复现论文,一定要跟着这门课程学习一次,因为正确的方法可以节约你10倍的阅读时间。

登录查看更多
0

相关内容

专知会员服务
75+阅读 · 2021年9月27日
专知会员服务
32+阅读 · 2021年9月16日
专知会员服务
47+阅读 · 2020年9月20日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
49+阅读 · 2020年8月25日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
172+阅读 · 2020年5月6日
【新书】Pro 机器学习算法Python实现,379页pdf
专知会员服务
198+阅读 · 2020年2月11日
一文掌握原生GAN论文复现方法!
CVer
1+阅读 · 2022年4月6日
AI当下要破局,不能没有知识图谱!
夕小瑶的卖萌屋
2+阅读 · 2022年3月17日
2022入坑图像分割,我该从哪儿入手?
CVer
2+阅读 · 2022年2月24日
如何入门大火的图神经网络?
CVer
0+阅读 · 2022年2月10日
推荐一个论文复现神器!
图与推荐
1+阅读 · 2021年11月22日
引用次数在 19000 次+的,都是什么神仙论文?
夕小瑶的卖萌屋
0+阅读 · 2021年9月22日
人脸识别 | 你的论文离CVPR , 还有多远?
夕小瑶的卖萌屋
0+阅读 · 2021年9月8日
Transformer秒杀CNN,凭什么?
图与推荐
1+阅读 · 2021年6月15日
GraphSAGE: GCN落地必读论文
AI100
29+阅读 · 2019年8月15日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
23+阅读 · 2022年2月4日
Arxiv
21+阅读 · 2021年2月13日
Arxiv
20+阅读 · 2019年9月7日
VIP会员
相关VIP内容
相关资讯
一文掌握原生GAN论文复现方法!
CVer
1+阅读 · 2022年4月6日
AI当下要破局,不能没有知识图谱!
夕小瑶的卖萌屋
2+阅读 · 2022年3月17日
2022入坑图像分割,我该从哪儿入手?
CVer
2+阅读 · 2022年2月24日
如何入门大火的图神经网络?
CVer
0+阅读 · 2022年2月10日
推荐一个论文复现神器!
图与推荐
1+阅读 · 2021年11月22日
引用次数在 19000 次+的,都是什么神仙论文?
夕小瑶的卖萌屋
0+阅读 · 2021年9月22日
人脸识别 | 你的论文离CVPR , 还有多远?
夕小瑶的卖萌屋
0+阅读 · 2021年9月8日
Transformer秒杀CNN,凭什么?
图与推荐
1+阅读 · 2021年6月15日
GraphSAGE: GCN落地必读论文
AI100
29+阅读 · 2019年8月15日
相关基金
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员