A general formulation of the linear model with functional (random) explanatory variable $X = X(t), t \in T$ , and scalar response Y is proposed. It includes the standard functional linear model, based on the inner product in the space $L^2[0,1]$, as a particular case. It also includes all models in which Y is assumed to be (up to an additive noise) a linear combination of a finite or countable collections of marginal variables X(t_j), with $t_j\in T$ or a linear combination of a finite number of linear projections of X. This general formulation can be interpreted in terms of the RKHS space generated by the covariance function of the process X(t). Some consistency results are proved. A few experimental results are given in order to show the practical interest of considering, in a unified framework, linear models based on a finite number of marginals $X(t_j)$ of the process $X(t)$.


翻译:提出了基于空间内产物的线性模型的一般公式,其中包括功能性(随机)解释变量$X=X(t),t\n T$,t\n T$,和calar响应Y。它包括标准功能性线性模型,以空间内产物$L2[0,1]美元为基础,作为特例。它还包括假定Y(直至添加噪音)为边际变量X(t_j)有限或可计算集合的线性组合的线性变量X(t_j),T$_j\in T$,或X线性预测的有限数量的线性组合。这种一般性公式可以用过程共变函数X(t)产生的RKHS空间来解释。一些一致性结果得到证明。一些实验结果是为了表明在统一框架内考虑基于过程有限数量的边际值$X(t_j)美元线性模型的实际利益。

0
下载
关闭预览

相关内容

对于给定d个属性描述的示例x=(x1,x2,......,xd),通过属性的线性组合来进行预测。一般的写法如下: f(x)=w'x+b,因此,线性模型具有很好的解释性(understandability,comprehensibility),参数w代表每个属性在回归过程中的重要程度。
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年6月1日
Sensitivity analysis in general metric spaces
Arxiv
0+阅读 · 2021年1月20日
Arxiv
0+阅读 · 2021年1月20日
Arxiv
0+阅读 · 2021年1月19日
Arxiv
0+阅读 · 2021年1月18日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
7+阅读 · 2018年1月21日
VIP会员
相关VIP内容
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年6月1日
Top
微信扫码咨询专知VIP会员