我是如何收集信息的

2020 年 4 月 22 日 AINLP

来源 | 知乎@Towser

整理 | NewBeeNLP ,已授权


在当下,很多时候问题不在于找不到信息,而在于如何从垃圾信息的海洋中找到优质信息的孤岛。两个指导原则如下:

  • 英文世界比中文世界有着更多的优质作品,并且时效性更强,因此应当习惯于 阅读英文资料
  • 在没有时间和精力去筛选内容的情况下,优先关注 优质的平台博主生产的信息。
我个人常用的信息获取渠道主要有:

A. 想要获取最新信息

  • twitter 上关注各位大佬,每天早上刷 twitter 即可
  • RSS 阅读器订阅 DeepMind/OpenAI/Google AI blog

如果做到以上两点,各种中文机器学习/人工智能公众号推送的东西基本上就都是你半天到两三天前看过的了。中文公众号我基本上只用来看国内公司的新闻。

如果我对一个工作感兴趣,想知道其他人对它的看法,一般会先看看 Twitter/Reddit 上其他人是怎么评论的。当然,如果碰巧有朋友在发表这个工作的机构工作,会直接私信问他对于这个工作的看法。如果愿意耐心等两天,也可以上知乎看评论,不过知乎现在水平越来越低了,有大量答非所问的回答。

B. 想要了解某个领域的进展

  • 如果是我完全不熟悉的领域,一般以 XXX tutorial/notes 为关键字来搜索,找到北美名校的讲义、某个顶会的 Tutorial 或者说 Summer School 的资料看,这些资料一般质量都很高。如果需要读论文,就找一些 roadmap 中提到频次较高的文章, 然后在 Google scholar 中搜索这些文章所引用和被引的文章里的高引文章,读上几篇就可以熟悉这个领域的大致脉络。
  • 如果是我熟悉的领域,就去找基准数据集的 leaderboard(例如 SQuAD/GLUE/WMT 等等),看看最新的效果如何,再去看对应的论文。paperswithcode [1] 和 nlpprogress [2] 也是追踪最新进展的好地方。

C. 回顾某个领域在过去一段时间内沉淀下来的工作

最新的工作刚出来的时候,解读难免有失偏颇(例如我以前对 Transformer 就看走眼了,觉得是一篇水文,这是我自从读论文以来犯过的最大错误)或者无法用更简化的眼光来审视。当一个领域发展一段时间后,把某些工作串联起来看往往会有更深的感悟。这种文章我一般会浏览以下博主或网站上的博客:

  • https://distill.pub/
  • http://colah.github.io/
  • http://ruder.io/
  • http://www.wildml.com/

D. 漫无目的的随便看看

随便浏览一下各个会议的 outstanding paper (或者拿到其他奇奇怪怪的奖项的论文)的标题和摘要。


本文参考资料

[1]

paperswithcode: http://paperswithcode.com/

[2]

nlpprogress: http://nlpprogress.com/

- END -

推荐阅读

AINLP年度阅读收藏清单

世界读书日,我来凑个单,推荐几本NLP/推荐算法/广告系统/其他相关的新书

百度PaddleHub NLP模型全面升级,推理性能提升50%以上

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

当当的羊毛,快薅,这一次要拼手速!

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

From Word Embeddings To Document Distances 阅读笔记

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

可解释性论文阅读笔记1-Tree Regularization

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


登录查看更多
0

相关内容

Twitter(推特)是一个社交网络及微博客服务的网站。它利用无线网络,有线网络,通信技术,进行即时通讯,是微博客的典型应用。
【2020新书】社交媒体挖掘,212pdf,Mining Social Media
专知会员服务
59+阅读 · 2020年7月30日
专知会员服务
159+阅读 · 2020年7月27日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
39+阅读 · 2020年7月27日
【资源】100+本免费数据科学书
专知会员服务
105+阅读 · 2020年3月17日
【2020新书】数据科学:十大Python项目,247页pdf
专知会员服务
212+阅读 · 2020年2月21日
清华大学张敏老师,个性化推荐的基础与趋势,145页ppt
专知会员服务
85+阅读 · 2019年11月27日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
新技能 | 如何快速获取视觉前沿技术动态?
计算机视觉life
3+阅读 · 2019年5月22日
如何匹配两段文本的语义?
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月21日
干货 | 100+个NLP数据集大放送,再不愁数据!
THU数据派
13+阅读 · 2018年5月1日
【教程】如何从零开始构建深度学习项目?
七月在线实验室
7+阅读 · 2018年4月23日
如何完成一篇有效的英文写作
中科院物理所
6+阅读 · 2018年4月13日
IanGoodfellow在推特教你如何更好地阅读GAN论文
零基础如何快速搭建一个推荐系统?
StuQ
5+阅读 · 2018年2月26日
如何用人工智能帮你找论文?
AI100
10+阅读 · 2018年2月21日
你用 Python 做过什么有趣的数据挖掘项目?
计算机与网络安全
4+阅读 · 2018年2月11日
如何利用动态信息数据构建用户画像?
NPDP产品经理资讯
6+阅读 · 2017年10月11日
Arxiv
99+阅读 · 2020年3月4日
A Comprehensive Survey on Transfer Learning
Arxiv
117+阅读 · 2019年11月7日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
6+阅读 · 2018年11月1日
Arxiv
9+阅读 · 2016年10月27日
VIP会员
相关VIP内容
【2020新书】社交媒体挖掘,212pdf,Mining Social Media
专知会员服务
59+阅读 · 2020年7月30日
专知会员服务
159+阅读 · 2020年7月27日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
39+阅读 · 2020年7月27日
【资源】100+本免费数据科学书
专知会员服务
105+阅读 · 2020年3月17日
【2020新书】数据科学:十大Python项目,247页pdf
专知会员服务
212+阅读 · 2020年2月21日
清华大学张敏老师,个性化推荐的基础与趋势,145页ppt
专知会员服务
85+阅读 · 2019年11月27日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
相关资讯
新技能 | 如何快速获取视觉前沿技术动态?
计算机视觉life
3+阅读 · 2019年5月22日
如何匹配两段文本的语义?
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月21日
干货 | 100+个NLP数据集大放送,再不愁数据!
THU数据派
13+阅读 · 2018年5月1日
【教程】如何从零开始构建深度学习项目?
七月在线实验室
7+阅读 · 2018年4月23日
如何完成一篇有效的英文写作
中科院物理所
6+阅读 · 2018年4月13日
IanGoodfellow在推特教你如何更好地阅读GAN论文
零基础如何快速搭建一个推荐系统?
StuQ
5+阅读 · 2018年2月26日
如何用人工智能帮你找论文?
AI100
10+阅读 · 2018年2月21日
你用 Python 做过什么有趣的数据挖掘项目?
计算机与网络安全
4+阅读 · 2018年2月11日
如何利用动态信息数据构建用户画像?
NPDP产品经理资讯
6+阅读 · 2017年10月11日
相关论文
Arxiv
99+阅读 · 2020年3月4日
A Comprehensive Survey on Transfer Learning
Arxiv
117+阅读 · 2019年11月7日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
6+阅读 · 2018年11月1日
Arxiv
9+阅读 · 2016年10月27日
Top
微信扫码咨询专知VIP会员