去噪自编码器背后的思想很简单. 为了迫使隐藏层单元发现更多鲁棒性好的特征, 以及阻止它学习恒等函数, 我们拿受损的输入来训练自编码器重构输入。
医疗健康领域的短文本解析探索----文本纠错
深度学习自然语言处理
10+阅读 · 2020年8月5日
BERT模型精讲
AINLP
1+阅读 · 2020年7月22日
【论文笔记】NLP 预训练模型综述
深度学习自然语言处理
8+阅读 · 2020年5月14日
【长文详解】从Transformer到BERT模型
深度学习自然语言处理
1+阅读 · 2020年3月24日
从Transformer到BERT模型
AINLP
4+阅读 · 2020年3月23日
ICLR 2020:从去噪自编码器到生成模型
PaperWeekly
1+阅读 · 2019年11月26日
飞跃芝麻街:XLNet 详解
AINLP
0+阅读 · 2019年11月21日
XLNet预训练模型,看这篇就够了!
AI科技评论
0+阅读 · 2019年10月6日
Interspeech 20周年,ASR和SD相关论文提前看
机器之心
1+阅读 · 2019年9月14日
参考链接
父主题
微信扫码咨询专知VIP会员