问答 | 损失函数的不同会对神经网络带来什么影响?

2018 年 8 月 23 日 AI研习社

这里是 AI 研习社,我们的问答版块已经正式推出了!欢迎大家来多多交流~

https://club.leiphone.com/page/question

(戳文末阅读原文直接进)

社长为你推荐来自 AI 研习社问答社区的精华问答。如有你也有问题,欢迎进社区提问。 

  话不多说,直接上题  

:损失函数的不同会对神经网络带来什么影响

来自社友的回答

▼▼▼ 

@Mackey 

损失函数是表示神经网络性能的‘恶略程度’的指标,即当前的神经网络对监督数据在多大程度上不拟合,在多大程度上不一致。这个损失函数可以使用任意函数,但一般采用均方误差和交叉熵误差等。为了寻找损失函数尽可能小的地方,需要计算参数的导数,(梯度),然后以这个导数为指引,逐步更新参数的值。

有技术问题需要求助

欢迎点击“阅读原文”

或者移步 AI 研习社社区

我们会把你的问题对接给技术大牛

登录查看更多
2

相关内容

专知会员服务
20+阅读 · 2020年3月29日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
41+阅读 · 2020年3月9日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
51+阅读 · 2020年2月19日
【模型泛化教程】标签平滑与Keras, TensorFlow,和深度学习
专知会员服务
21+阅读 · 2019年12月31日
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
网络宽度对深度学习模型性能有什么影响?
极市平台
15+阅读 · 2019年7月7日
神经网络训练tricks
极市平台
6+阅读 · 2019年4月15日
从最优化的角度看待 Softmax 损失函数
极市平台
31+阅读 · 2019年2月21日
换个角度看GAN:另一种损失函数
机器学习算法与Python学习
7+阅读 · 2019年1月1日
问答 | 迁移学习有哪些入门建议?
AI研习社
7+阅读 · 2018年8月30日
面试整理:关于代价函数,正则化
数据挖掘入门与实战
8+阅读 · 2018年3月29日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
Neural Module Networks for Reasoning over Text
Arxiv
9+阅读 · 2019年12月10日
Bivariate Beta LSTM
Arxiv
6+阅读 · 2019年10月7日
Arxiv
6+阅读 · 2019年4月8日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
4+阅读 · 2018年3月30日
Arxiv
5+阅读 · 2017年7月23日
VIP会员
相关资讯
网络宽度对深度学习模型性能有什么影响?
极市平台
15+阅读 · 2019年7月7日
神经网络训练tricks
极市平台
6+阅读 · 2019年4月15日
从最优化的角度看待 Softmax 损失函数
极市平台
31+阅读 · 2019年2月21日
换个角度看GAN:另一种损失函数
机器学习算法与Python学习
7+阅读 · 2019年1月1日
问答 | 迁移学习有哪些入门建议?
AI研习社
7+阅读 · 2018年8月30日
面试整理:关于代价函数,正则化
数据挖掘入门与实战
8+阅读 · 2018年3月29日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
相关论文
Neural Module Networks for Reasoning over Text
Arxiv
9+阅读 · 2019年12月10日
Bivariate Beta LSTM
Arxiv
6+阅读 · 2019年10月7日
Arxiv
6+阅读 · 2019年4月8日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
4+阅读 · 2018年3月30日
Arxiv
5+阅读 · 2017年7月23日
Top
微信扫码咨询专知VIP会员