Fine-grained population distribution data is of great importance for many applications, e.g., urban planning, traffic scheduling, epidemic modeling, and risk control. However, due to the limitations of data collection, including infrastructure density, user privacy, and business security, such fine-grained data is hard to collect and usually, only coarse-grained data is available. Thus, obtaining fine-grained population distribution from coarse-grained distribution becomes an important problem. To complete this task, existing methods mainly rely on sufficient fine-grained ground truth for training, which is not often available. This limits the applications of these methods and brings the necessity to transfer knowledge from data-sufficient cities to data-scarce cities. In knowledge transfer scenario, we employ single reference fine-grained ground truth in the target city as the ground truth to inform the large-scale urban structure and support the knowledge transfer in the target city. By this approach, we transform the fine-grained population mapping problem into a one-shot transfer learning problem for population mapping task. In this paper, we propose a one-shot transfer learning framework, PSRNet, to transfer spatial-temporal knowledge across cities in fine-grained population mapping task from the view of network structure, data, and optimization. Experiments on real-life datasets of 4 cities demonstrate that PSRNet has significant advantages over 8 baselines by reducing RMSE and MAE for more than 25%. Our code and datasets are released in Github.


翻译:精确的人口分布数据对于许多应用,例如城市规划、交通时间安排、流行模型和风险控制等,都非常重要。然而,由于数据收集的局限性,包括基础设施密度、用户隐私和商业安全等,这类精细数据很难收集,而且通常只有粗差数据。因此,从粗差分布中获得细细人口分布成为一个重要问题。为了完成这项任务,现有方法主要依靠足够的精细地面真相进行培训,而这往往并不具备。这限制了这些方法的应用,使得有必要从数据充足城市向数据匮乏城市转移知识。在知识转移假设中,我们使用目标城市的单一精细参考地面真相作为地面真相,向大规模城市结构提供信息,支持目标城市的知识转移。通过这种方法,我们把细细细细人口绘图问题转变为人口绘图的一线性转移学习问题,在本文中,我们建议从数据充足城市中减少一线转移知识,在实际数据模型化网络8-SR网络中,将我们的数据转换为4号数据流流化城市的一线性转移。我们建议,在实际城市中,通过实时数据定位网络将数据转换为4号流数据流流流流数据流转换为数据流流。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年7月15日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年10月12日
Arxiv
17+阅读 · 2021年2月15日
A Comprehensive Survey on Transfer Learning
Arxiv
120+阅读 · 2019年11月7日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Learning From Positive and Unlabeled Data: A Survey
Arxiv
5+阅读 · 2018年11月12日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年10月12日
Arxiv
17+阅读 · 2021年2月15日
A Comprehensive Survey on Transfer Learning
Arxiv
120+阅读 · 2019年11月7日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Learning From Positive and Unlabeled Data: A Survey
Arxiv
5+阅读 · 2018年11月12日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Top
微信扫码咨询专知VIP会员