The current COVID-19 pandemic has put a huge challenge on the Indian health infrastructure. With more and more people getting affected during the second wave, the hospitals were over-burdened, running out of supplies and oxygen. In this scenario, prediction of the number of COVID-19 cases beforehand might have helped in the better utilization of limited resources and supplies. This manuscript deals with the prediction of new COVID-19 cases, new deaths and total active cases for multiple days in advance. The proposed method uses gated recurrent unit networks as the main predicting model. A study is conducted by building four models that are pre-trained on the data from four different countries (United States of America, Brazil, Spain and Bangladesh) and are fine-tuned or retrained on India's data. Since the four countries chosen have experienced different types of infection curves, the pre-training provides a transfer learning to the models incorporating diverse situations into account. Each of the four models then give a multiple days ahead predictions using recursive learning method for the Indian test data. The final prediction comes from an ensemble of the predictions of the combination of different models. This method with two countries, Spain and Brazil, is seen to achieve the best performance amongst all the combinations as well as compared to other traditional regression models.


翻译:目前的COVID-19大流行给印度卫生基础设施带来了巨大的挑战,在第二波期间,越来越多的人受到影响,医院负担过重,供应和氧气耗尽;在这一假设中,预先预测COVID-19病例的数量可能有助于更好地利用有限的资源和用品;这一手稿涉及预测新的COVID-19病例、新的死亡和连续数日的全例病例;拟议方法使用封闭的经常性单位网络作为主要预测模型;研究通过建立四个模型进行,这些模型已经预先培训了四个不同国家(美利坚合众国、巴西、西班牙和孟加拉国)的数据,并经过微调或再培训印度的数据;由于四个选定的国家经历了不同种类的感染曲线,培训前可以将学习转移到将不同情况纳入核算的模型中;四种模型中的每一种都提前数天作出预测,印度测试数据采用循环性学习方法;最后的预测来自四个不同国家(美利坚合众国、巴西、西班牙和孟加拉国)的数据组合的最佳预测,并经过微调或重新培训。这个方法与两个传统的模型相比,西班牙和巴西,其业绩都是由两个传统模型共同实现的。

0
下载
关闭预览

相关内容

门控递归单元(GRU)是递归神经网络的门控机制,由Kyunghyun Cho等人在2014年提出。GRU就像带有忘记门的长短期记忆(LSTM),但由于缺少输出门,因此参数比LSTM少。GRU在某些较小和频率较低的数据集上表现出更好的性能。GRU在复音音乐建模,语音信号建模和自然语言处理的某些任务上的性能类似于LSTM 。
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Improving Code Autocompletion with Transfer Learning
Arxiv
0+阅读 · 2021年10月13日
Arxiv
56+阅读 · 2021年5月3日
A Comprehensive Survey on Transfer Learning
Arxiv
120+阅读 · 2019年11月7日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Top
微信扫码咨询专知VIP会员