Soft robotic snakes (SRSs) have a unique combination of continuous and compliant properties that allow them to imitate the complex movements of biological snakes. Despite the previous attempts to develop SRSs, many have been limited to planar movements or use wheels to achieve locomotion, which restricts their ability to imitate the full range of biological snake movements. We propose a new design for the SRSs that is wheelless and powered by pneumatics, relying solely on spatial bending to achieve its movements. We derive a kinematic model of the proposed SRS and utilize it to achieve two snake locomotion trajectories, namely sidewinding and helical rolling. These movements are experimentally evaluated under different gait parameters on our SRS prototype. The results demonstrate that the SRS can successfully mimic the proposed spatial locomotion trajectories. This is a significant improvement over the previous designs, which were either limited to planar movements or relied on wheels for locomotion. The ability of the SRS to effectively mimic the complex movements of biological snakes opens up new possibilities for its use in various applications.


翻译:软体机器人蛇(SRS)具有一种独特的连续和顺从特性组合,使其能够模仿生物蛇的复杂移动。尽管以前曾试图发展SRS,但许多这种移动仅限于计划移动或使用轮子以实现移动,这限制了它们模仿整个生物蛇运动的能力。我们建议为SRS设计一个新的没有轮式的、由气压驱动的新设计,它完全依靠空间弯曲来实现移动。我们从拟议的SRS中得出一个运动模型,并利用它实现两条蛇移动轨迹,即侧向和螺旋滚动。这些移动是在我们SRS原型不同的网格参数下进行实验性评估的。结果显示,SRS可以成功地模拟拟议的空间移动轨迹。这大大改进了以前的设计,这些设计要么局限于平面运动,要么依靠轮子来进行移动。SRS有效地模拟生物蛇的复杂移动,从而在各种应用中开辟了新的可能性。</s>

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月2日
专知会员服务
60+阅读 · 2020年3月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
1+阅读 · 2023年4月24日
VIP会员
相关VIP内容
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员