Band selection refers to the process of choosing the most relevant bands in a hyperspectral image. By selecting a limited number of optimal bands, we aim at speeding up model training, improving accuracy, or both. It reduces redundancy among spectral bands while trying to preserve the original information of the image. By now many efforts have been made to develop unsupervised band selection approaches, of which the majority are heuristic algorithms devised by trial and error. In this paper, we are interested in training an intelligent agent that, given a hyperspectral image, is capable of automatically learning policy to select an optimal band subset without any hand-engineered reasoning. To this end, we frame the problem of unsupervised band selection as a Markov decision process, propose an effective method to parameterize it, and finally solve the problem by deep reinforcement learning. Once the agent is trained, it learns a band-selection policy that guides the agent to sequentially select bands by fully exploiting the hyperspectral image and previously picked bands. Furthermore, we propose two different reward schemes for the environment simulation of deep reinforcement learning and compare them in experiments. This, to the best of our knowledge, is the first study that explores a deep reinforcement learning model for hyperspectral image analysis, thus opening a new door for future research and showcasing the great potential of deep reinforcement learning in remote sensing applications. Extensive experiments are carried out on four hyperspectral data sets, and experimental results demonstrate the effectiveness of the proposed method.


翻译:在超光谱图像中选择最相关的频带的过程。 通过选择数量有限的最佳频带, 我们的目标是加快模型培训, 提高准确性, 或者两者兼而有之。 它会减少光谱频带的冗余, 同时试图保存图像的原始信息 。 现在已经做出许多努力来开发不受监督的频带选择方法, 其中多数是试验和错误所设计的超光谱算法 。 在本文中, 我们有兴趣培训一个智能剂, 它能以超光谱图像为基础, 自动学习政策, 选择一个最佳频带子子, 而不考虑任何手动推理 。 为此, 我们把不受监督的频带选择问题标为Markov 决策程序, 提出一个有效的系统化方法, 最终通过深加固学习来解决问题 。 一旦该代理人接受了培训, 它会学会一个带选择政策, 通过充分利用超光谱图像和先前所选的波段来引导代理人按顺序选择频带。 此外, 我们提出了两种不同的奖励方案, 用于环境模拟深层强化学习和实验中比较它们。 。 至我们最理想的超光谱带选择的模型, 的模型 将 将 的超光谱实验 展示未来 的模型 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 的 的 的 的 的 的 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验 实验

0
下载
关闭预览

相关内容

深度强化学习 (DRL) 是一种使用深度学习技术扩展传统强化学习方法的一种机器学习方法。 传统强化学习方法的主要任务是使得主体根据从环境中获得的奖赏能够学习到最大化奖赏的行为。然而,传统无模型强化学习方法需要使用函数逼近技术使得主体能够学习出值函数或者策略。在这种情况下,深度学习强大的函数逼近能力自然成为了替代人工指定特征的最好手段并为性能更好的端到端学习的实现提供了可能。
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
3+阅读 · 2019年6月5日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员