We propose a modelling framework which allows for the estimation of abundances from trace counts. This indirect method of estimating abundance is attractive due to the relative affordability with which it may be carried out, and the reduction in possible risk posed to animals and humans when compared to direct methods for estimating animal abundance. We assess these methods by performing simulations which allow us to examine the accuracy of model estimates. The models are then fitted to several case studies to obtain abundance estimates for collared peccaries in Brazil, kit foxes in Arizona, red foxes in Italy and sika deer in Scotland. Simulation results reveal that these models produce accurate estimates of abundance at a range of sample sizes. In particular, this modelling framework produces accurate estimates when data is very scarce. The use of vestige counts in estimating abundance allows for the monitoring of species which may otherwise go undetected due to their reclusive nature. Additionally, the efficacy of these models when data is collected at very few transects will allow for the use of small-scale data collection programmes which may be carried out at reduced cost, when compared to larger-scale data collection.


翻译:我们提议了一个模型框架,用以估计从痕量中得出的丰度。这种间接估计丰度的方法具有吸引力,因为可以相对负担得起,而且与直接估计动物丰度的方法相比,动物和人类可能面临的风险减少。我们通过进行模拟来评估这些方法,从而使我们能够审查模型估计的准确性。然后,这些模型被安装在几个案例研究中,以便为巴西的上层物种、亚利桑那的狐狸盒、意大利的红狐狸和苏格兰的锡卡鹿获得丰度估计值。模拟结果表明,这些模型能够准确估计各种抽样规模的丰度。特别是,在数据非常稀少时,这一模型框架可以准确估计丰度。在估计丰度时,使用前置计数可以监测物种,否则可能因其封闭性而未被发现。此外,如果收集的数据在极少的截断线上收集,这些模型的功效将允许使用小规模数据收集方案,与较大规模数据收集相比,可以以较低成本进行小规模的数据收集方案。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年8月2日
Arxiv
19+阅读 · 2022年7月29日
VIP会员
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员