©作者 | 吴桐
研究方向 | 推荐系统
本文接上篇文章:
浅聊对比学习(Contrastive Learning)第一弹
这次主要是想记录下最近读的三篇对比学习的经典 paper:
SimCLR-A Simple Framework for Contrasting Learning of Visual Representations
https://arxiv.org/abs/2002.05709
https://arxiv.org/abs/2006.10029
https://arxiv.org/abs/1801.04062
题外话:SimCLR 和 SimCLRV2 看完后觉得 CV 的炼丹之路:路漫漫其修远兮。
在组内做paper reading的记录:
https://bytedance.feishu.cn/docx/doxcn0hAWqSip1niZE2ZCpyO4yb
顺带安利下公司的飞书文档,YYDS!
最近学到一个新词儿:「缝合怪」~
1.1 One Sentence Summary
1.3 实验
实验图太多就不贴了,想看 detail 的可以直接看我的 paper_reading 记录:
https://bytedance.feishu.cn/docx/doxcn0hAWqSip1niZE2ZCpyO4yb
只对个人认为有意思的点说下。
▲ Furthermore, even when nonlinear projection is used, the layer before the projection head, h, is still much better (>10%) than the layer after, z = g(h), which shows that the hidden layer before the projection head is a better representation than the layer after
在组内做 paper reading 的记录:
https://bytedance.feishu.cn/docx/doxcn9P6oMZzuwZOrYAhYc5AUUe
Pretraining:用了 SimCLR,然后用了更深的 projection head,同时不是直接把 projection head 丢了,而是用 projection head 的 1st layer,来做后面的 fine tune。。。(这也太 trick 了吧)
Fine-tune:用 SimCLR 训练出来的网络,接下游的 MLP,做 classification 任务,进行 fine-tune。
实验图就不全贴了,想看 detail 的可以直接看我的 paper_reading 记录:
https://bytedance.feishu.cn/docx/doxcn9P6oMZzuwZOrYAhYc5AUUe
只对个人认为有意思的点说下。
在组内做 paper reading 的记录:
https://bytedance.feishu.cn/docx/doxcnMHzZBeWFV4HZV6NAU7W73o
然后从训练集中随机 sample b 个 z,作为负样本。
实验图就不全贴了,想看 detail 的可以直接看我的 paper_reading 记录:
https://bytedance.feishu.cn/docx/doxcnMHzZBeWFV4HZV6NAU7W73o
只对个人认为有意思的点说下。
参考文献
[1] 极市平台:深度学习三大谜团:集成、知识蒸馏和自蒸馏
[2] Chen T, Kornblith S, Norouzi M, et al. A simple framework for contrastive learning of visual representations[C]//International conference on machine learning. PMLR, 2020: 1597-1607.
[3] Chen T, Kornblith S, Swersky K, et al. Big self-supervised models are strong semi-supervised learners[J]. Advances in neural information processing systems, 2020, 33: 22243-22255.
[4] Belghazi M I, Baratin A, Rajeshwar S, et al. Mutual information neural estimation[C]//International conference on machine learning. PMLR, 2018: 531-540.
[5] Allen-Zhu Z, Li Y. Towards understanding ensemble, knowledge distillation and self-distillation in deep learning[J]. arXiv preprint arXiv:2012.09816, 2020.
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧