一个1024的MLP,击败了几乎所有的GNN模型

2022 年 8 月 31 日 图与推荐

近些年,一些NLP研究者尝试利用GNN来做一些NLP相关的任务。但是,ACL2022一篇论文的实验结果:一个1024的MLP,击败了几乎所有的GNN模型

上述结论来自"Bag-of-Words vs. Graph vs. Sequence in Text Classification: Questioning the Necessity of Text-Graphs and the Surprising Strength of a Wide MLP"

文本分类这个问题上套各种GNN的工作,基本就是灌水

这么没有挑战性的任务,就像北京市中考试卷


登录查看更多
0

相关内容

WWW 2022 :基于纯MLP架构的序列推荐模型
专知会员服务
14+阅读 · 2022年3月20日
专知会员服务
32+阅读 · 2021年10月4日
专知会员服务
57+阅读 · 2021年4月29日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
ICLR'22 | 图机器学习最近都在研究什么?
图与推荐
1+阅读 · 2021年11月19日
论文合集 | 如何解释你的GNN模型?
图与推荐
1+阅读 · 2021年11月3日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
KDD2021 | 最新GNN官方教程
机器学习与推荐算法
2+阅读 · 2021年8月18日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
150 多个 ML、NLP 和 Python 相关的教程
Python开发者
14+阅读 · 2017年8月15日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
34+阅读 · 2020年1月2日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
相关资讯
ICLR'22 | 图机器学习最近都在研究什么?
图与推荐
1+阅读 · 2021年11月19日
论文合集 | 如何解释你的GNN模型?
图与推荐
1+阅读 · 2021年11月3日
KDD'21 | 如何评估GNN的解释性模型?
图与推荐
1+阅读 · 2021年9月30日
KDD2021 | 最新GNN官方教程
机器学习与推荐算法
2+阅读 · 2021年8月18日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
150 多个 ML、NLP 和 Python 相关的教程
Python开发者
14+阅读 · 2017年8月15日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员