导师放养,研三了还没论文!怎么办?

2022 年 4 月 13 日 CVer

同学投稿:我从研三上学期,就焦虑得厉害,论文不仅要大改,投的SCI还没有接收。


害怕延毕,不停地熬夜,但是并不知道要去做什么。


成宿成宿的失眠,每天晚上噩梦不断,导师对我是放养型,和导师、同学之间关系一般,甚至一度很紧张。


如果导师放养,怎么解决论文问题?


我相信关注我的粉丝中,被这问题困扰的,不止一个。


分享一下我的心得,先抓主要矛盾:


从选题→看文献找创新点→行文→查重→交稿→答辩这个流程来看,90%同学都是卡在选题和创新点


01、论题


俗话说得好,“题好一半文”,学术论文能否选取一个好选题,是论文写作工作能否顺利完成的重要基础。


文科类研究生撰写学术论文应当从选好论文标题做起,通过对论文选题的锤炼,学会从整体上把握学术论文的水平,这也是培养提高自身研究能力的基本要求之一。


选错论题,做了多少准备工作都没用,在这种导师放养的大环境下,临答辩前几天论题被导师推翻重来的惨案实在太多了....


如果你目前对自己的论文选题毫无想法,建议先确定一下,自己对专业哪一部分内容最感兴趣,然后上知网搜索一下相关文献材料,


关于选题是否好写,这里有一个重要坐标可以参考,那就是各大顶级会议的收录情况,比如ACM CIKM、ICLR等他们通常代表着学术界的风向标


主要是看两个指标,一个是自己研究方向的论文收录篇数,第二个是收录排名历史对比



例如GNN(图神经网络)在20年底举办的ACM CIKM上,GNN(图神经网络)成为最大趋势,ICLR 2020 提交论文的绝对高频词中它排名第7位,相比于ICLR 2019提升了13位。


从数据来看,这是一个热门且相对好发论文的选题。


02、创新点


阅读了海量的文献,但是找不到创新点,即使想出点子,一搜都发现有人研究过了,即使没研究,发现在模型上一跑,结果效果稀烂..........



怎么将已有模型运用在自己的项目上,怎么设计符合自己方向的模型?


Introduction部分该怎么写?baselines怎么与时俱进?参数实验,效果&性能实验,消融实验怎么解决?


anyway,这些说起来可以说3天3夜了,我花了十几个小时,给大家准备了一套免费资料,全部看完,写篇优秀论文不在话下。


资料的设计者是全球top30高校教授,博士生导师,海外知名高校博士。同时他是国际顶尖期刊会议审稿人。


近五年来发表顶级会议和期刊30余篇包括Nature Communications, ICLR, ICML等。


超3000名学生学完这套资料后成功发表论文,70%登上优质期刊,相信对你也会有帮助。


↓ 前方福利 ↓

原价399元,现在0.1元领取!



扫码添加客服  即可领取

免费资料:《好论文该怎么写》

(限99份,手慢无)

登录查看更多
0

相关内容

论文(Paper)是专知网站核心资料文档,包括全球顶级期刊、顶级会议论文,及全球顶尖高校博士硕士学位论文。重点关注中国计算机学会推荐的国际学术会议和期刊,CCF-A、B、C三类。通过人机协作方式,汇编、挖掘后呈现于专知网站。
ICLR 2022 评审出炉!来看看得分最高8份的31篇论文是什么!
专知会员服务
107+阅读 · 2021年7月18日
CVPR 2020 最佳论文与最佳学生论文!
专知会员服务
35+阅读 · 2020年6月17日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
周志华教授:如何做研究与写论文?
专知会员服务
153+阅读 · 2019年10月9日
论文写不出来,导师放养,严重焦虑,怎么办?
投了3遍都被毙的论文,终于中了
CVer
0+阅读 · 2022年3月17日
如果导师放养,怎么发表优质论文?
机器学习与推荐算法
0+阅读 · 2022年3月10日
知乎热议!如何把自己的导师培养成杰青?
极市平台
0+阅读 · 2021年11月25日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年7月12日
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年7月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Age Optimal Sampling Under Unknown Delay Statistics
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Pre-Training on Dynamic Graph Neural Networks
Arxiv
1+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
12+阅读 · 2021年5月3日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
14+阅读 · 2018年4月18日
VIP会员
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年7月12日
国家自然科学基金
2+阅读 · 2015年5月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年7月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Age Optimal Sampling Under Unknown Delay Statistics
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Pre-Training on Dynamic Graph Neural Networks
Arxiv
1+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
12+阅读 · 2021年5月3日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
14+阅读 · 2018年4月18日
Top
微信扫码咨询专知VIP会员