Spatio-temporal processes in environmental applications are often assumed to follow a Gaussian model, possibly after some transformation. However, heterogeneity in space and time might have a pattern that will not be accommodated by transforming the data. In this scenario, modelling the variance laws is an appealing alternative. This work adds flexibility to the usual Multivariate Dynamic Gaussian model by defining the process as a scale mixture between a Gaussian and log-Gaussian processes. The scale is represented by a process varying smoothly over space and time which is allowed to depend on covariates. State-space equations define the dynamics over time for both mean and variance processes resulting infeasible inference and prediction. Analysis of artificial datasets show that the parameters are identifiable and simpler models are well recovered by the general proposed model. The analyses of two important environmental processes, maximum temperature and maximum ozone, illustrate the effectiveness of our proposal in improving the uncertainty quantification in the prediction of spatio-temporal processes.


翻译:环境应用中的时空空间过程往往被假定为遵循高斯模型,可能在某些变异之后。然而,空间和时间的异质性可能有一个无法通过转换数据来适应的模式。在这种假设中,模拟差异法是一种令人感兴趣的替代办法。这项工作为通常的多变动态高斯模型增加了灵活性,将这一过程定义为高斯和日志-加西南进程之间的比例混合过程。这个规模代表着一个在空间和时间上差异不一的过程,允许以共变为依托。国家空间方程式界定了平均和差异过程的动态,导致不可行的推断和预测。对人为数据集的分析表明,参数是可识别的,一般提议模型完全恢复了更简单的模型。对两个重要的环境过程,即最高温度和最高臭氧的分析,说明了我们的建议在改进对时空过程预测的不确定性量化方面的有效性。

0
下载
关闭预览

相关内容

Processing 是一门开源编程语言和与之配套的集成开发环境(IDE)的名称。Processing 在电子艺术和视觉设计社区被用来教授编程基础,并运用于大量的新媒体和互动艺术作品中。
专知会员服务
31+阅读 · 2021年6月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年12月3日
Arxiv
14+阅读 · 2020年12月17日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Attend More Times for Image Captioning
Arxiv
6+阅读 · 2018年12月8日
Deformable ConvNets v2: More Deformable, Better Results
Arxiv
3+阅读 · 2018年4月5日
Arxiv
6+阅读 · 2018年2月28日
VIP会员
相关VIP内容
相关资讯
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
0+阅读 · 2021年12月3日
Arxiv
14+阅读 · 2020年12月17日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Attend More Times for Image Captioning
Arxiv
6+阅读 · 2018年12月8日
Deformable ConvNets v2: More Deformable, Better Results
Arxiv
3+阅读 · 2018年4月5日
Arxiv
6+阅读 · 2018年2月28日
Top
微信扫码咨询专知VIP会员