This paper demonstrates the feasibility of single-antenna and single-RF (radio frequency)- anchor received power strength indicator (RSSI) localization (SARR-LOC) with the assistance of the computer vision (CV) technique. Generally, to perform radio frequency (RF)-based device localization, either 1) fine-grained channel state information or 2) RSSIs from multiple antenna elements or multiple RF anchors (e.g., access points) is required. Meanwhile, owing to deficiency of single-antenna and single-anchor RSSI, which only indicates a coarse-grained distance information between a receiver and a transmitter, realizing localization with single-antenna and single-anchor RSSI is challenging. Our key idea to address this challenge is to leverage CV technique and to estimate the most likely first Fresnel zone (FFZ) between the receiver and transmitter, where the role of the RSSI is to detect blockage timings. Specifically, historical positions of an obstacle that dynamically blocks the FFZ are detected by the CV technique, and we estimate positions at which a blockage starts and ends via a time series of RSSI. These estimated obstacle positions, in principle, coincide with points on the FFZ boundaries, enabling the estimation of the FFZ and localization of the transmitter. The experimental evaluation revealed that the proposed SARR-LOC achieved the localization error less than 1.0 m in an indoor environment, which is comparable to that of a conventional triangulation-based RSSI localization with multiple RF anchors.


翻译:本文展示了在计算机视像技术(CV)技术的协助下,单干线和单RF(无线电频率)锚获得的电源强度指标(RSSI)本地化(SARR-LOC)的可行性,一般地说,使用基于无线电频率(RF)的装置本地化,或者说细微的频道状态信息,或者说需要多天线元素或多RF锚(例如接入点)的RSSI,或者说需要来自多个天线元素或多RF锚(例如接入点)的RSSIS。与此同时,由于单干线和单安纳(无线电频率)锚点获得的电源强度指标(RSSI)本地化(RSSI)的距离信息不足,这只表明接收器和发报机之间有粗略的距离信息,用单安纳和单安纳(SAR-LOC)RSI实现本地化是具有挑战性的。我们对于应对这一挑战的主要想法是利用CV技术(SARV)和单一安纳和单安特RIS(SIS)系统(SAR-F)定位)定位的定位的定位,通过一个时间序列来估计当地障碍,然后是SARFF(SAR-Z(SAR-SAR-L)的定位)的相对的定位。

0
下载
关闭预览

相关内容

专知会员服务
65+阅读 · 2021年7月4日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
273+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
已删除
将门创投
4+阅读 · 2017年7月7日
Arxiv
0+阅读 · 2021年12月24日
Arxiv
13+阅读 · 2021年3月3日
Arxiv
37+阅读 · 2021年2月10日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
已删除
将门创投
4+阅读 · 2017年7月7日
Top
微信扫码咨询专知VIP会员