Climbing Robots are being developed for applications ranging from cleaning to the inspection of difficult to reach constructions. Climbing robots should be capable of carrying a light payload and climbing on vertical surfaces with ability to cope with obstacles. Regarding adhesion to the surface, they should be able to operate on different surfaces with different adhesion methods to produce strong gripping force using light weight mechanism consuming minimum power. Bearing these facts in mind this paper presents a 4-legged Wall Climbing Robot in which suction power using on board suction pumps is used as an adhesion technique. A Walking gait was developed to provide the robot with a capability for climbing up the wall. The robot's kinematics and motion can be considered as mimicking a technique commonly used in rock-climbing using four limbs to climb. It uses four legs, each with four-degrees-of-freedom (4-DOF) and specially designed suction cups attached to the end of each leg that enable it to manoeuvre itself up the wall and to move in any direction. The end effector can also be replaced with other end effectors designed for different adhesion methods to climb on variety of surfaces.


翻译:正在开发攀爬机器人,应用范围从清洁到检查难以到达的建筑。 攀爬机器人应该能够携带光载荷,在垂直表面爬上能够应对障碍。 关于对表面的粘合,他们应该能够在不同表面操作,使用不同的粘合方法,利用轻重机制产生强大的握力,使用最小功率。 考虑到这些事实, 本文展示了一条四英尺长的爬墙, 上面的抽吸泵使用的抽吸力被用作粘合技术。 已经开发了一条行走式, 向机器人提供攀爬墙的能力。 机器人的运动和运动可以被视为模拟在岩石攀爬过程中通常使用的一种技术, 使用四肢来攀爬。 它使用四条腿, 每条都有四度自由度( 4- DOF), 每条腿末端有专门设计的抽吸杯, 使其能够在墙上运动, 并移动到任何方向。 最终效果也可以被替换为不同的表面悬浮法设计的其他最终效果。

0
下载
关闭预览

相关内容

Surface 是微软公司( Microsoft)旗下一系列使用 Windows 10(早期为 Windows 8.X)操作系统的电脑产品,目前有 Surface、Surface Pro 和 Surface Book 三个系列。 2012 年 6 月 18 日,初代 Surface Pro/RT 由时任微软 CEO 史蒂夫·鲍尔默发布于在洛杉矶举行的记者会,2012 年 10 月 26 日上市销售。
【2022新书】Python数据分析第三版,579页pdf
专知会员服务
226+阅读 · 2022年8月31日
专知会员服务
75+阅读 · 2021年3月16日
专知会员服务
38+阅读 · 2020年9月6日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Call for Nominations: 2022 Multimedia Prize Paper Award
CCF多媒体专委会
0+阅读 · 2022年2月12日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年3月8日
Arxiv
35+阅读 · 2021年8月2日
VIP会员
相关VIP内容
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Call for Nominations: 2022 Multimedia Prize Paper Award
CCF多媒体专委会
0+阅读 · 2022年2月12日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员