Nitrogen (N) fertiliser is routinely applied by farmers to increase crop yields. At present, farmers often over-apply N fertilizer in some locations or timepoints because they do not have high-resolution crop N status data. N-use efficiency can be low, with the remaining N lost to the environment, resulting in high production costs and environmental pollution. Accurate and timely estimation of N status in crops is crucial to improving cropping systems' economic and environmental sustainability. The conventional approaches based on tissue analysis in the laboratory for estimating N status in plants are time consuming and destructive. Recent advances in remote sensing and machine learning have shown promise in addressing the aforementioned challenges in a non-destructive way. We propose a novel deep learning framework: a channel-spatial attention-based vision transformer (CSVT) for estimating crop N status from large images collected from a UAV in a wheat field. Unlike the existing works, the proposed CSVT introduces a Channel Attention Block (CAB) and a Spatial Interaction Block (SIB), which allows capturing nonlinear characteristics of spatial-wise and channel-wise features from UAV digital aerial imagery, for accurate N status prediction in wheat crops. Moreover, since acquiring labeled data is time consuming and costly, local-to-global self-supervised learning is introduced to pre-train the CSVT with extensive unlabelled data. The proposed CSVT has been compared with the state-of-the-art models, tested and validated on both testing and independent datasets. The proposed approach achieved high accuracy (0.96) with good generalizability and reproducibility for wheat N status estimation.


翻译:目前,农民往往在某些地点或时点过度使用N化肥,因为他们没有高分辨率的作物N状况数据。N使用效率可能较低,其余N的N损失在环境中,导致高生产成本和环境污染。准确和及时地估计N在作物中的状态对于改善作物种植系统的经济和环境可持续性至关重要。基于实验室组织分析的常规方法估算N在植物中的状态是及时消耗和破坏性的。遥感和机器学习方面的最新进展表明,以非破坏性方式应对上述挑战的前景良好。我们提出了一个新的深层次学习框架:一个基于频道的注意型视觉变异器(CSVT),用于根据小麦田中从UAV中收集的大型图像估算作物N状况。与现有的工程不同,拟议的CSVT引入了一个频道关注区块和空间互动区块,从而能够以非线性的方式获取UAV的S的空基和频道特性,以不破坏性的方式应对上述挑战。为了准确的CAVAV数据升级到全球价格数据,为了准确的升级和不断更新的Gloadal-ladeal-ladeal-ladeal-ladeal-ladeal-ladeal-ladeal-ladeal-lax-lade-lade-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lade-ladeal-lade-lade-I-lax-lax-lax-lax-lade-ladeal-ladeal-ladal-lad-lad-lad-lad-lad-lad-lad-lax-lax-lax-lax-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-ladal-ladal-ladal-lad-lad-ladal-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-lad-I-lad-lad-

0
下载
关闭预览

相关内容

【干货书】机器学习Primer,122页pdf
专知会员服务
106+阅读 · 2020年10月5日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
CCF B类期刊IPM专刊截稿信息1条
Call4Papers
3+阅读 · 2018年10月11日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2022年1月14日
Arxiv
0+阅读 · 2022年1月8日
Arxiv
11+阅读 · 2019年4月15日
VIP会员
相关VIP内容
【干货书】机器学习Primer,122页pdf
专知会员服务
106+阅读 · 2020年10月5日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
相关资讯
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
CCF B类期刊IPM专刊截稿信息1条
Call4Papers
3+阅读 · 2018年10月11日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员