来源 | 知乎@Towser
整理 | NewBeeNLP ,已授权
在当下,很多时候问题不在于找不到信息,而在于如何从垃圾信息的海洋中找到优质信息的孤岛。两个指导原则如下:
如果做到以上两点,各种中文机器学习/人工智能公众号推送的东西基本上就都是你半天到两三天前看过的了。中文公众号我基本上只用来看国内公司的新闻。
如果我对一个工作感兴趣,想知道其他人对它的看法,一般会先看看 Twitter/Reddit 上其他人是怎么评论的。当然,如果碰巧有朋友在发表这个工作的机构工作,会直接私信问他对于这个工作的看法。如果愿意耐心等两天,也可以上知乎看评论,不过知乎现在水平越来越低了,有大量答非所问的回答。
最新的工作刚出来的时候,解读难免有失偏颇(例如我以前对 Transformer 就看走眼了,觉得是一篇水文,这是我自从读论文以来犯过的最大错误)或者无法用更简化的眼光来审视。当一个领域发展一段时间后,把某些工作串联起来看往往会有更深的感悟。这种文章我一般会浏览以下博主或网站上的博客:
随便浏览一下各个会议的 outstanding paper (或者拿到其他奇奇怪怪的奖项的论文)的标题和摘要。
paperswithcode: http://paperswithcode.com/
[2]nlpprogress: http://nlpprogress.com/
- END -
推荐阅读
世界读书日,我来凑个单,推荐几本NLP/推荐算法/广告系统/其他相关的新书
百度PaddleHub NLP模型全面升级,推理性能提升50%以上
斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用
数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?
From Word Embeddings To Document Distances 阅读笔记
模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法
可解释性论文阅读笔记1-Tree Regularization
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。