NeurIPS2022马上截稿了! 如何提高论文命中率,牛津大学副教授Jakob倾心讲解《写好机器学习顶会论文》关键要点,必看!

规范ML论文结构

1. 摘要 (TL; 论文DR):

X: 我们想要做什么?为什么它是相关的? Y: 为什么这么难? Z: 我们怎么解决(也就是我们的贡献!) 1: 我们如何验证我们解决了它: 1a)实验 1 b)理论

2. 引言 (摘要的长版本,即全文):

X:我们想要做什么?为什么它是相关的? Y:为什么这么难? Z:我们怎么解决(也就是我们的贡献!) 1:我们如何验证我们解决了它: 1)实验结果 1 b)理论 额外的空间吗?未来的工作! 在第一页上有图1是额外的要点

3. 相关工作

我们的学术相关工作,也就是在文献中尝试解决相同的问题。

目标是“比较和对比”——他们的方法在假设或方法上有何不同?如果他们的方法适用于我们的问题设置,我希望在实验部分进行比较。如果不是,就需要明确说明为什么给定的方法不适用。 注意:仅仅描述另一篇论文正在做什么是不够的。我们需要比较和对比。

4. 背景介绍

我们工作的学术起源,即理解我们的方法所需的所有概念和之前的工作。包括一小节的问题设置,正式介绍问题设置和符号(形式主义)为我们的方法。强调任何不寻常的特定假设。

5. 方法:

我们怎么做的。我们为什么这么做。所有的描述都使用了问题设置中介绍的一般形式化,并建立在背景介绍的概念/基础上。

6.实验设置

我们如何验证我们的东西是否有效? 要给出了这个问题设置的具体实例和我们的方法的具体实现细节。

7. 结果和讨论:

展示在实验设置中我们所描述的问题上运行方法的结果。与相关工作中提到的Baseline进行比较。包括统计数据和置信区间。包括关于超参数和其他潜在的公平问题的声明。包括消融研究,以表明具体部分的方法是相关的。讨论该方法的局限性。

8 结论

我们做到了。这篇文章非常棒,你很幸运读过它(也就是整篇文章的简要回顾)。此外,我们还会在未来做所有这些神奇的事情。

其他建议

从提纲开始,而不是全文。每一行将对应于最终版本中的一个段落。在建造一座建筑之前改变它的轮廓要容易得多。如果你不确定的话,这是和别人交谈的好时机。接下来,展开大纲,但将摘要文本作为Latex注释放在每个段落之前。这将使你保持在正确的方向上,并使任何提供反馈的人能够更容易地快速了解整个流程。

最常见的写作“坑”和其他建议

  • 被动语态——不清楚为什么,但这是一个很常见的错误。被动被过度使用了(比如这里?)它既笨拙又模糊了谁做了什么。如果可以避免,就尽量避免。
  • 要非常清楚自己的贡献。永远不要混淆以前做过的事和你做过的事之间的界限。
  • 时态要一致。无论如何都要避免转换,如果可以避免的话,也要避免使用将来时。"In Section 3 we will show"
  • 尽量避免使用填充词。想想你想说什么,然后说出来,别想别的。常见的填充词有“can”、“In order to”等。示例:“The Bank Loan problem can be reformulated as a special subset of the contextual bandit problem”=>“The Bank Loan problem is a special instance of a contextual bandit problem”
  • 写完开头的文字后,试着删除三分之一的单词。这是典型的“绒毛”数量。
  • 请在Latex中使用正确的引号“正确的引号”(如果不清楚,可以复制粘贴)。
  • 当作者是句子的一部分时,使用“\citet”,例如“\citet{foerster2016learnig} show ..”,以及“~\citep”,否则,例如“..”最近的工作~ \ citep {foerster2016learnig}”。
  • 引用任何不被你的实验支持的观点,避免浮夸的语言或过于宽泛的观点——这通常会让你很容易毫无理由地攻击这篇论文
  • 不要把写论文留到最后一分钟。目标是在截止日期前一周完成一份完整的草稿。
  • 在Overleaf中启用更改跟踪,并直接与您的协作者的电子邮件地址共享。这样它就在UI中了
  • 在使用首字母缩略词之前介绍它。
  • 尽量避免同义词。
  • 只介绍你在论文中使用的符号和首字母缩写。
  • 什么是粗体,什么是斜体?这取决于你,但是要始终如一。
  • 避免使用随机大写(RC),即使是方法名和引入首字母缩写时也是如此。
  • 避免人工智能算法的拟人化(“知识”等)。
  • 避免主观主张——通常形容词是危险信号。
  • “On the other hand”不能没有“On the one hand”。
  • 注意在一段话中单词的重复。
    • 尽可能使用简单的语言。避免使用罕见的词或听起来“花哨”。对于很多科学家(比如我自己)来说,英语不是他们的第一语言。
  • 永远不要复制粘贴其他论文,除非你是逐字引用。
  • 从头开始编写代码要比修改代码更容易(也更合乎道德!)。

最后,与所有的作者进行大量的沟通(即,至少在最后一周每天),以保持正确的方向并享受乐趣!!

成为VIP会员查看完整内容
48

相关内容

【干货书】概率,统计与数据,513页pdf
专知会员服务
136+阅读 · 2021年11月27日
【干货书】大数据小摘要,272页pdf,剑桥大学出版社
专知会员服务
41+阅读 · 2021年7月6日
【经典书】信息论原理,774页pdf
专知会员服务
255+阅读 · 2021年3月22日
ICLR 2021 评审出炉!来看看得分最高的50篇论文是什么!
专知会员服务
40+阅读 · 2020年11月13日
计算机科学家如何学会重新发明证明
大数据文摘
0+阅读 · 2022年5月31日
导师放羊,想不出论文选题,该怎么办?
PaperWeekly
0+阅读 · 2022年5月24日
ICLR’22 最佳脑洞奖提名:《GPT 如何进行布朗运动?》
夕小瑶的卖萌屋
0+阅读 · 2022年4月26日
终极学习大法:如何记住所学的东西
36氪
0+阅读 · 2022年4月10日
顶会每投必挂?顶会审稿人一针见血!
夕小瑶的卖萌屋
0+阅读 · 2022年3月1日
工程设计论——如何写好工程代码
阿里技术
0+阅读 · 2022年2月15日
如何有效并快速地阅读一篇AI论文?
学术头条
3+阅读 · 2021年12月26日
Python 热图进阶
专知
15+阅读 · 2019年5月4日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年7月5日
Arxiv
0+阅读 · 2022年7月4日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
14+阅读 · 2019年11月26日
VIP会员
相关资讯
计算机科学家如何学会重新发明证明
大数据文摘
0+阅读 · 2022年5月31日
导师放羊,想不出论文选题,该怎么办?
PaperWeekly
0+阅读 · 2022年5月24日
ICLR’22 最佳脑洞奖提名:《GPT 如何进行布朗运动?》
夕小瑶的卖萌屋
0+阅读 · 2022年4月26日
终极学习大法:如何记住所学的东西
36氪
0+阅读 · 2022年4月10日
顶会每投必挂?顶会审稿人一针见血!
夕小瑶的卖萌屋
0+阅读 · 2022年3月1日
工程设计论——如何写好工程代码
阿里技术
0+阅读 · 2022年2月15日
如何有效并快速地阅读一篇AI论文?
学术头条
3+阅读 · 2021年12月26日
Python 热图进阶
专知
15+阅读 · 2019年5月4日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年7月5日
Arxiv
0+阅读 · 2022年7月4日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
14+阅读 · 2019年11月26日
微信扫码咨询专知VIP会员