搞算法的妹子们,写出一本1200页的深度学习技术手册!(限时公开下载)

2022 年 2 月 9 日 极市平台



今天这篇文章不谈技术,给大家分享一些干货!首先来聊聊一个AI圈子里画风清奇的公众号 夕小瑶的卖萌屋。公号的作者中不仅妹子居多,颜值能打,而且喜欢将学术研究和大厂业务上线中的收获与读者分享。

卖萌屋的作者们就读或毕业于北大、中科院、北邮、蒙特利尔大学MILA、墨尔本大学 等国内外的顶尖CS院校&实验室,在微软、百度、腾讯等大厂核心研究/业务团队从事搜索、推荐、NLP/CV相关的研究和业务落地,顶会收割机、上线狂魔、顶级赛事冠军、SSP offer收割机、知乎大V等只是ta们的部分标签。公众号主页点击 「这是哪儿」 了解更多ta们的故事(有照片哦😱)
同样,这个公众号一直保持原创输出,高质量的文章整理成了一个 1200 页+的技术栈手册,内容从零基础到进阶,方向不限于:
  • 器学习算法

    • 经典机器 学习算法
      • 辑回归
      • 朴素贝叶斯
      • ...
    • 数学基础

  • 互联网算法岗求职篇

    • 秋招经验

    • 面试经验

    • 岗位分析

    • 面试必备基础知识

    • ...

  • 深度学习炼丹技巧篇

    • 基础篇

    • 理论篇

    • 实践篇

      • 加速训练篇

      • 模型压缩篇

      • 高效炼丹篇

      • 调参技巧篇

      • ...

    • ...

  • 自然语言处理篇

    • 基础知识

    • 学术前沿

    • 子方向综述

      • 对话系统

      • 知识图谱

      • 预训练模型

      • 智能问答

      • ...

    • ...

  • 编程基础篇

手册内容截屏


下载方式

关注公号,后台回复「666」即可下载

手册内容展示

图文并茂

思维导图

机器学习

自然语言处理

论文解读


手册目录树


├──深度学习与炼丹技巧

│    ├──实践篇

│    │    ├──万万没想到,我的炼丹炉玩坏了

│    │    ├──分类问题后处理技巧CAN,近乎零成本获取效果提升

│    │    ├──模型训练太慢?显存不够用?这个算法让你的GPU老树开新花

│    │    ├──盘点我跳过的科研天坑,进坑就是半年白干

│    │    ├──BERT重计算:用22.5%的训练时间节省5倍的显存开销(附代码)

│    │    ├──算法工程师的效率神器——vim篇

│    │    ├──你的 GNN,可能 99% 的参数都是冗余的

│    │    ├──训练效率低?GPU利用率上不去?快来看看别人家的tricks吧~

│    │    ├──显存不够,如何训练大型神经网络?

│    │    ├──All in Linux:一个算法工程师的IDE断奶之路

│    │    ├──别再喊我调参侠!夕小瑶“科学炼丹”手册了解一下

│    │    ├──一训练就显存爆炸?Facebook 推出 8 比特优化器,两行代码拯救你的显存!

│    ├──基础篇

│    │    ├──深度解析LSTM神经网络的设计原理

│    │    ├──训练神经网络时如何确定batch的大小?

│    │    ├──你的模型真的陷入局部最优点了吗?

│    │    ├──不要再纠结卷积的公式啦!0公式深度解析全连接前馈网络与卷积神经网络

│    │    ├──从前馈到反馈:解析循环神经网络(RNN)及其tricks

│    ├──理论篇

│    │    ├──高效利用无标注数据:自监督学习简述

│    │    ├──抓住训练集中真正有用的样本,提升模型整体性能!

│    │    ├──我删了这些训练数据…模型反而表现更好了!?

│    │    ├──超硬核 ICML’21 _ 如何使自然语言生成提速五倍,且显存占用减低99%

│    │    ├──ICLR2020满分论文 - 为什么梯度裁剪能加速模型训练?

│    │    ├──打破情感分类准确率 80 分天花板!更加充分的知识图谱结合范式

│    │    ├──吴恩达发起新型竞赛范式!模型固定,只调数据?!

│    │    ├──如何提升大规模Transformer的训练效果?Primer给出答案

│    │    ├──CMU & MILA & 谷歌 _ 三家巨头发布史上最干文本增强总结

│    │    ├──AdaX:一个比Adam更优秀,带”长期记忆“的优化器

│    │    ├──谷歌 _ 多任务学习,如何挑选有效的辅助任务?只需一个公式!

│    │    ├──ICLR2020──如何判断两个神经网络学到的知识是否一致

│    │    ├──硬核推导Google AdaFactor:一个省显存的宝藏优化器

│    │    ├──大模型炼丹无从下手?谷歌、OpenAI烧了几百万刀,总结出这些方法论…

│    │    ├──中文BERT上分新技巧,多粒度信息来帮忙

│    │    ├──一时学习一时爽,_持续学习_持续爽

│    │    ├──别让数据坑了你!用置信学习找出错误标注(附开源实现)

├──机器学习

│    ├──还在随缘炼丹?一文带你详尽了解机器学习模型可解释性的奥秘

│    ├──史上最萌最认真的机器学习-深度学习-模式识别入门指导手册-三-

│    ├──史上最萌最认真的机器学习-深度学习-模式识别入门指导手册-二-

│    ├──Allen AI提出MERLOT,视频理解领域新SOTA!

│    ├──AllenAI _ 用GPT-3帮助增建数据,NLI任务直接提升十个点!?

│    ├──数据缺失、混乱、重复怎么办?最全数据清洗指南让你所向披靡

│    ├──强化学习扫盲贴:从Q-learning到DQN

│    ├──AdaX:一个比Adam更优秀,带”长期记忆“的优化器

│    ├──2202年了,“小样本”还值得卷吗?

│    ├──史上最萌最认真的机器学习-深度学习-模式识别入门指导手册-一-

│    ├──硬核推导Google AdaFactor:一个省显存的宝藏优化器

│    ├──经典统计机器学习模型

│    │    ├──从逻辑回归到受限玻尔兹曼机

│    │    ├──深度前馈网络与Xavier初始化原理

│    │    ├──从点到线:逻辑回归到条件随机场

│    │    ├──LightGBM最强解析,从算法原理到代码实现~

│    │    ├──逻辑回归与朴素贝叶斯的战争

│    │    ├──从逻辑回归到最大熵模型

│    │    ├──解开玻尔兹曼机的封印会发生什么?

│    │    ├──朴素贝叶斯与拣鱼的故事

│    │    ├──机器学习系列-强填EM算法在理论与工程之间的鸿沟(上)

│    │    ├──机器学习系列-强填EM算法在理论与工程之间的鸿沟(下)

│    │    ├──深入解析GBDT二分类算法(附代码实现)

│    ├──如何优雅而时髦的解决不均衡分类问题

│    ├──一时学习一时爽,_持续学习_持续爽

│    ├──以4%参数量比肩GPT-3!Deepmind 发布检索型 LM,或将成为 LM 发展新趋势!?

│    ├──数学基础

│    │    ├──线性代数应该这样讲-四--奇异值分解与主成分分析

│    │    ├──线性代数应该这样讲(二)

│    │    ├──线性代数应该这样讲-三--向量2范数与模型泛化

│    │    ├──线性代数应该这样讲(一)

│    ├──Meta AI 发布 data2vec!统一模态的新里程碑!

│    ├──别让数据坑了你!用置信学习找出错误标注(附开源实现)

├──自然语言处理

│    ├──基础知识

│    │    ├──史上最可爱的关系抽取指南?从一条规则到十个开源项目

│    │    ├──斯坦福大学最甜网剧:知识图谱CS520面向大众开放啦!

│    │    ├──中文分词的古今中外,你想知道的都在这里

│    │    ├──如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述的副本

│    │    ├──Step-by-step-to-Transformer:深入解析工作原理(以Pytorch机器翻译为例)

│    │    ├──文本分类问题不需要ResNet?小夕解析DPCNN设计原理(上)

│    │    ├──NLP的游戏规则从此改写?从word2vec,-ELMo到BERT

│    │    ├──搜索引擎核心技术与算法-——-倒排索引初体验

│    │    ├──文本分类问题不需要ResNet?小夕解析DPCNN设计原理(下)

│    │    ├──如何打造高质量的NLP数据集

│    │    ├──文本分类有哪些论文中很少提及却对性能有重要影响的tricks?

│    │    ├──那些击溃了所有NLP系统的样本

│    │    ├──NLP最佳入门与提升路线

│    │    ├──45个小众而实用的NLP开源字典和工具

│    │    ├──NLP-Subword三大算法原理:BPE、WordPiece、ULM

│    ├──子方向综述

│    │    ├──基于知识图谱的篇章标签生成综述

│    │    ├──NLP中的少样本困境问题探究

│    │    ├──多轮对话与检索式聊天机器人(chatbot)综述

│    │    ├──后BERT时代:15个预训练模型对比分析与关键点探究

│    │    ├──中文分词的古今中外,你想知道的都在这里

│    │    ├──对话系统的设计艺术

│    │    ├──超一流 - 从XLNet的多流机制看最新预训练模型的研究进展

│    │    ├──从零构建知识图谱

│    │    ├──限定域文本语料的短语挖掘综述

│    │    ├──预训练模型关键问题梳理与面试必备高频FAQ

│    │    ├──一文跟进Prompt进展!综述+15篇最新论文逐一梳理

│    │    ├──MSRA-万字综述 直击多模态文档理解

│    │    ├──NLP数据增强方法综述:EDA、BT、MixMatch、UDA

│    │    ├──NLP进入预训练模型时代:从word2vec,ELMo到BERT

│    │    ├──智能问答系统与机器阅读理解分方向综述

│    │    ├──文本生成评价指标的进化与推翻

│    │    ├──如何提高NLP模型鲁棒性和泛化能力?对抗训练论文综述

│    │    ├──工业界求解NER问题的12条黄金法则

│    │    ├──任务完成型对话之对话状态追踪DST综述

│    │    ├──写了一篇关于 NLP 综述的综述!

│    │    ├──文本匹配相关方向打卡点总结

│    │    ├──搜索中的Query理解及应用

│    ├──20篇NLP综述.zip

│    ├──学术前沿

│    │    ├──Prompt tuning新工作,五个参数解决下游任务 fine-tuning

│    │    ├──万能的BERT连文本纠错也不放过

│    │    ├──ACL2020──基于Knowledge-Embedding的多跳知识图谱问答

│    │    ├──GPT-3诞生,Finetune也不再必要了!NLP领域又一核弹!

│    │    ├──Google Research新成果,让表格理解和检索更上一层楼!

│    │    ├──ACL'21 _ 多模态数值推理新挑战,让 AI 学解几何题

│    │    ├──告别自注意力,谷歌为Transformer打造新内核Synthesizer

│    │    ├──迁移Prompt–解决Prompt Tuning三大问题!

│    │    ├──如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT

│    │    ├──当NLPer爱上CV:后BERT时代生存指南之VL-BERT篇

│    │    ├──ACL’21 _ 对话系统也要进军多模态了!

│    │    ├──别再Prompt了!谷歌提出tuning新方法,强力释放GPT-3潜力!

│    │    ├──ACL2020──对话数据集Mutual:论对话逻辑,BERT还差的很远

│    │    ├──格局打开,带你解锁 prompt 的花式用法

│    │    ├──ACL2020 - 线上搜索结果大幅提升!亚马逊提出对抗式query-doc相关性模型

│    │    ├──别再蒸馏3层BERT了!变矮又能变瘦的DynaBERT了解一下

│    │    ├──卖萌屋上线Arxiv论文速刷神器,直达学术最前沿!

│    │    ├──加了元学习之后,少样本学习竟然可以变得这么简单!

│    │    ├──NYU & Google_ 知识蒸馏无处不在,但它真的有用吗?

│    │    ├──LayerNorm是Transformer的最优解吗?

│    │    ├──成本砍砍砍!不用数据也能用 BERT 做对比学习?

│    │    ├──Google - 突破瓶颈,打造更强大的Transformer

│    │    ├──吊打BERT-Large的小型预训练模型ELECTRA终于开源!真相却让人──

│    │    ├──对话系统答非所问?快试试这篇ACL'21的连贯性评估大法

│    │    ├──ACL'21 _ 弱标签的垃圾数据,也能变废为宝!

│    │    ├──如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述

│    │    ├──ACL2020──FastBERT:放飞BERT的推理速度

│    │    ├──图灵奖大佬 Lecun 发表对比学习新作,比 SimCLR 更好用!

│    │    ├──用多模态信息做 prompt,解锁 GPT 新玩法

│    │    ├──ACL20 - 让笨重的BERT问答匹配模型变快!

│    │    ├──EMNLP'21 _ 让压缩语言模型自动搜索最优结构!

│    │    ├──刷新SOTA!Salesforce提出跨模态对比学习新方法,仅需4M图像数据!

├──算法岗求职必备

│    ├──别再搜集面经啦!小夕教你斩下NLP算法岗offer!

│    ├──拒绝跟风,谈谈几种算法岗的区别和体验

│    ├──在大厂和小厂做算法有什么不同?

│    ├──写在校招季,谈谈机器学习岗的Offer选择问题

│    ├──6 年大厂面试官,谈谈我对算法岗面试的一些看法

│    ├──13个offer,8家SSP,谈谈我的秋招经验

│    ├──面试必备基础知识

│    │    ├──卖萌屋算法岗面试手册上线!通往面试自由之路

│    │    ├──算法工程师思维导图—深度学习篇

│    │    ├──预训练模型关键问题梳理与面试必备高频FAQ

│    │    ├──算法工程师思维导图—数据结构与算法

│    │    ├──算法工程师思维导图—统计机器学习篇

│    │    ├──算法与数据结构--空间复杂度O-1-遍历树

│    │    ├──「小公式」平均数与级数

│    │    ├──「小算法」回文数与数值合法性检验

│    ├──Google、MS和BAT教给我的面试真谛

├──精编文章

│    ├──如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT

│    ├──吐血整理:论文写作中注意这些细节,能显著提升成稿质量

│    ├──视觉增强词向量:我是词向量,我开眼了!

│    ├──别再喊我调参侠!夕小瑶“科学炼丹”手册了解一下

│    ├──如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述

│    ├──ACL2020 - 线上搜索结果大幅提升!亚马逊提出对抗式query-doc相关性模型

│    ├──纵观对话预训练技术演变史:化繁为简的背后,什么在消亡?

│    ├──模型训练太慢?显存不够用?这个算法让你的GPU老树开新花

│    ├──从论文到PPT,一键生成!从此报告不用愁!

│    ├──数据还是模型?人类知识在深度学习里还有用武之地吗?

│    ├──图灵奖大佬+谷歌团队,为通用人工智能背书!CV 任务也能用 LM 建模!

│    ├──工作6年,谈谈我对“算法岗”的理解

│    ├──对话系统的设计艺术

│    ├──诺奖级成果开源!为什么说AlphaFold2足以改变全人类?

│    ├──恕我直言,很多小样本学习的工作就是不切实际的

│    ├──超一流 - 从XLNet的多流机制看最新预训练模型的研究进展

│    ├──All in Linux:一个算法工程师的IDE断奶之路

│    ├──肝了1W字!文本生成评价指标的进化与推翻

│    ├──NLP中的少样本困境问题探究

│    ├──恕我直言,你的实验结论可能严重依赖随机数种子!

│    ├──11 个好用的科研工具推荐!工作效率提升 max!

│    ├──中文分词的古今中外,你想知道的都在这里

│    ├──BERT重计算:用22.5%的训练时间节省5倍的显存开销(附代码)

│    ├──ACL'21 _ debug完的神经网络,如何测试是否仍然存在bug?

│    ├──Google掀桌了,GLUE基准的时代终于过去了?

│    ├──NLP哪个细分方向最具社会价值?

│    ├──一时学习一时爽,_持续学习_持续爽

│    ├──万万没想到,我的炼丹炉玩坏了

│    ├──万能的BERT连文本纠错也不放过

│    ├──从 ACL’22 投稿情况,速览当下 NLP 研究热点!

│    ├──Google - 突破瓶颈,打造更强大的Transformer

│    ├──Facebook 推出多模态通用模型 FLAVA,吊打 CLIP 平均十个点!

│    ├──在错误的数据上,刷到 SOTA 又有什么意义?

│    ├──如何提高NLP模型鲁棒性和泛化能力?对抗训练论文串讲

│    ├──算法工程师的效率神器——vim篇

│    ├──AllenAI 发布万能问答系统 MACAW!各类题型样样精通,性能大幅超越 GPT-3!

│    ├──深度学习,路在何方?

│    ├──史上最大多模态图文数据集发布!

│    ├──13个offer,8家SSP,谈谈我的秋招经验

│    ├──多模态为什么比单模态好?第一份严谨证明来了!

│    ├──聊聊机器翻译界的“灌水与反灌水之战”!

│    ├──GAN 的内在漏洞!只看眼睛就能找出虚拟人脸?

│    ├──ACL20 - 让笨重的BERT问答匹配模型变快!

│    ├──写Rap,编菜谱,你画我猜……这些 AI demo 我可以玩一天!

│    ├──预训练卷不动,可以卷输入预处理啊!

│    ├──LayerNorm是Transformer的最优解吗?

│    ├──Git从入门到进阶,你想要的全在这里

│    ├──近期神奇机器学习应用大赏

│    ├──学完文本知识,我就直接看懂图片了!

│    ├──工业界求解NER问题的12条黄金法则

│    ├──谷歌:一篇论文,让研究者吃我三份安利

│    ├──谁说发 paper 一定要追快打新?2021年,研究 word2vec 也能中顶会!

│    ├──ICLR2020满分论文 - 为什么梯度裁剪能加速模型训练?

│    ├──硬核推导Google AdaFactor:一个省显存的宝藏优化器

├──编程基础

│    ├──一份北大信科内部流传的 “CS 自救指南”(无广推荐)

│    ├──Git从入门到进阶,你想要的全在这里

│    ├──算法工程师的效率神器——vim篇

│    ├──All in Linux:一个算法工程师的IDE断奶之路

│    ├──7款优秀Vim插件帮你打造完美IDE

├──有毒的文章

│    ├──万万没想到,我的炼丹炉玩坏了

│    ├──两个月,刷了八千篇Arxiv,我发现……

│    ├──发现一篇专门吐槽 NLP 内卷现状的 ACL 论文 .._

│    ├──他与她,一个两年前的故事

│    ├──谢撩,人在斯坦福打SoTA

│    ├──如何优雅的追到女神夕小瑶

│    ├──一位老师,一位领导,一个让全体学生考上目标学校的故事

│    ├──如果你跟夕小瑶恋爱了──(上)

│    ├──如果你跟夕小瑶恋爱了──(下)

│    ├──我在斯坦福做科研的碎碎念

│    ├──在斯坦福,做 Manning 的 phd 要有多强?


其它宝藏

除此之外,这群硬核的萌妹子将公众号其它宝藏整理了一番,分享给大家:

1. 自然语言处理入门书单与热门方向论文列表

2. 通往面试自由之路的算法岗面试手册,涵盖数学基础、数据结构与算法、统计机器学习和深度学习。

3. NLP经典公开课Stanford CS224n追剧计划,收录了中英字幕视频、笔记、FAQ、课后作业等,还有数千人的讨论群。

4. 轻松跟紧前沿的NLP/CV/IR方向Arxiv神器。


获取方式

关注公号,后台回复「666」即可获取

登录查看更多
2

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
算法通关手册(LeetCode)
专知会员服务
156+阅读 · 2022年1月13日
《深度学习500问》一份超全深度学习资料,面试必备!
专知会员服务
161+阅读 · 2022年1月9日
深度学习批归一化及其相关算法研究进展
专知会员服务
49+阅读 · 2020年7月17日
【新书】傻瓜式入门深度学习,371页pdf
专知会员服务
183+阅读 · 2019年12月28日
《迁移学习简明手册》,93页pdf
专知会员服务
131+阅读 · 2019年12月9日
【课程】伯克利2019全栈深度学习课程(附下载)
专知会员服务
54+阅读 · 2019年10月29日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
薪资不逊 NLP 算法岗,边缘 AI 火了!
专知
0+阅读 · 2022年3月16日
关于深度学习,我们4年时间写了一本1400页的全栈手册
夕小瑶的卖萌屋
1+阅读 · 2022年3月13日
3本AI领域必读著作,限时免费!
图与推荐
0+阅读 · 2021年12月16日
简明深度学习学习资料分享:从基础到进阶
深度学习与NLP
27+阅读 · 2019年9月7日
深度学习500问!一份火爆GitHub的面试手册
人工智能前沿讲习班
40+阅读 · 2019年3月18日
下载 | 954页《数据可视化》手册
机器学习算法与Python学习
20+阅读 · 2019年1月3日
459页《Python深度学习》下载
机器学习算法与Python学习
20+阅读 · 2018年10月29日
1024 | 最全面试总结,深度学习500问,面试必备【下载】
机器学习算法与Python学习
53+阅读 · 2018年10月24日
分享 | 精选课程资源汇总
黑龙江大学自然语言处理实验室
10+阅读 · 2017年11月1日
推荐|台大陈蕴侬、李宏毅“应用深度学习”课程(1-3)
全球人工智能
11+阅读 · 2017年10月22日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月18日
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关VIP内容
算法通关手册(LeetCode)
专知会员服务
156+阅读 · 2022年1月13日
《深度学习500问》一份超全深度学习资料,面试必备!
专知会员服务
161+阅读 · 2022年1月9日
深度学习批归一化及其相关算法研究进展
专知会员服务
49+阅读 · 2020年7月17日
【新书】傻瓜式入门深度学习,371页pdf
专知会员服务
183+阅读 · 2019年12月28日
《迁移学习简明手册》,93页pdf
专知会员服务
131+阅读 · 2019年12月9日
【课程】伯克利2019全栈深度学习课程(附下载)
专知会员服务
54+阅读 · 2019年10月29日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
相关资讯
薪资不逊 NLP 算法岗,边缘 AI 火了!
专知
0+阅读 · 2022年3月16日
关于深度学习,我们4年时间写了一本1400页的全栈手册
夕小瑶的卖萌屋
1+阅读 · 2022年3月13日
3本AI领域必读著作,限时免费!
图与推荐
0+阅读 · 2021年12月16日
简明深度学习学习资料分享:从基础到进阶
深度学习与NLP
27+阅读 · 2019年9月7日
深度学习500问!一份火爆GitHub的面试手册
人工智能前沿讲习班
40+阅读 · 2019年3月18日
下载 | 954页《数据可视化》手册
机器学习算法与Python学习
20+阅读 · 2019年1月3日
459页《Python深度学习》下载
机器学习算法与Python学习
20+阅读 · 2018年10月29日
1024 | 最全面试总结,深度学习500问,面试必备【下载】
机器学习算法与Python学习
53+阅读 · 2018年10月24日
分享 | 精选课程资源汇总
黑龙江大学自然语言处理实验室
10+阅读 · 2017年11月1日
推荐|台大陈蕴侬、李宏毅“应用深度学习”课程(1-3)
全球人工智能
11+阅读 · 2017年10月22日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月18日
Identity-aware Graph Neural Networks
Arxiv
14+阅读 · 2021年1月25日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
16+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员