A novel model called error loss network (ELN) is proposed to build an error loss function for supervised learning. The ELN is in structure similar to a radial basis function (RBF) neural network, but its input is an error sample and output is a loss corresponding to that error sample. That means the nonlinear input-output mapper of ELN creates an error loss function. The proposed ELN provides a unified model for a large class of error loss functions, which includes some information theoretic learning (ITL) loss functions as special cases. The activation function, weight parameters and network size of the ELN can be predetermined or learned from the error samples. On this basis, we propose a new machine learning paradigm where the learning process is divided into two stages: first, learning a loss function using an ELN; second, using the learned loss function to continue to perform the learning. Experimental results are presented to demonstrate the desirable performance of the new method.


翻译:建议建立一个名为错误损失网络的新模式(ELN), 用于为受监督的学习构建一个错误损失功能。 ELN 的结构类似于一个辐射基函数神经网络, 但输入是一个错误样本, 输出是一个与错误样本相应的损失。 这意味着 ELN 的非线性输入- 输出映射器产生一个错误损失功能。 拟议的ELN 为大类错误损失功能提供了一个统一模型, 其中包括一些信息理论学习( ITL) 损失函数, 作为特例。 ELN 的激活功能、 重量参数和网络大小可以预设, 也可以从错误样本中学习。 在此基础上, 我们提出一个新的机器学习模式, 学习过程可以分为两个阶段: 第一, 使用 ELN 学习损失函数; 第二, 使用学习过的丢失函数继续学习。 实验结果将演示新方法的可取性表现 。

1
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
【芝加哥大学】可变形的风格转移,Deformable Style Transfer
专知会员服务
30+阅读 · 2020年3月26日
深度学习的多个loss如何平衡?
极市平台
5+阅读 · 2020年3月16日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
ICML2019:Google和Facebook在推进哪些方向?
专知
5+阅读 · 2019年6月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
一文道尽softmax loss及其变种
极市平台
14+阅读 · 2019年2月19日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
7+阅读 · 2017年7月11日
Arxiv
0+阅读 · 2021年7月31日
Arxiv
21+阅读 · 2021年2月13日
Arxiv
3+阅读 · 2018年11月11日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
相关资讯
深度学习的多个loss如何平衡?
极市平台
5+阅读 · 2020年3月16日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
ICML2019:Google和Facebook在推进哪些方向?
专知
5+阅读 · 2019年6月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
一文道尽softmax loss及其变种
极市平台
14+阅读 · 2019年2月19日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
7+阅读 · 2017年7月11日
相关论文
Arxiv
0+阅读 · 2021年7月31日
Arxiv
21+阅读 · 2021年2月13日
Arxiv
3+阅读 · 2018年11月11日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
3+阅读 · 2017年10月1日
Top
微信扫码咨询专知VIP会员