Robots excel at avoiding obstacles but still struggle to traverse complex 3-D terrain with cluttered large obstacles. By contrast, insects like cockroaches excel at doing so. Recent research in our lab elucidated how locomotor transitions emerge from locomotor-environment interaction for diverse locomotor challenges abstracted for complex 3-D terrain and what strategies overcome these challenges. Here, we build on these fundamental insights to develop a cockroach-inspired legged robot, Om-ni-Roach, that integrates these strategies for multi-functional locomotion. The robot is based on the RHex-class design with six compliant legs and features a rounded body shape with two wings that can open, an active tail with pitch and yaw degrees of freedom. Through two development and testing iterations, our robot was capable of overcoming all locomotor challenges with high performance and success rate. It traversed cluttered rigid pillars only 1.1X robot body width apart, a 2.5X hip height bump, a 0.75X body length gap, densely cluttered flexible beams only 65% its body width apart, and self-righted within 4 seconds. Systematic experiments on tail use and approach angle for beam traversal revealed that an active tail pointed downward and tapping against the ground helps roll the body into the gap and break frictional and interlocking contact to traverse.


翻译:机械人擅长避免障碍, 但仍在努力穿越复杂的三维地形, 并设置巨大的障碍。 相比之下, 蟑螂等昆虫则擅长这样做。 我们实验室最近的研究揭示了叶眼- 环境互动是如何从叶眼- 环境互动中产生叶眼球转变的, 为复杂的三维地形所抽取的各种叶眼球挑战, 以及克服这些挑战的策略。 在这里, 我们利用这些根本的洞察力, 开发出一个由蟑螂引发的脚踏式机器人, Om- ni- Roach, 整合了这些多功能移动的策略。 机器人以RHEex类设计为基础, 有六条符合要求的腿, 并具有两根圆形身体形状, 两个翅膀可以打开, 一个活跃的尾尾巴, 一个活跃的尾巴, 通过两种开发和测试, 我们的机器人能够克服所有的叶眼球挑战, 高性能和成功率。 我们利用这些基本洞察力的硬柱根根, 只隔开1 1- 1- X 机器人体宽, 一个2.5x 的峰顶峰, 一个0.75X 身体长度的宽距间隔缝,, 一个密度的宽宽度距离, 一个宽度宽度只有6 % 和直方向的距,, 和直方向的摩距, 。

0
下载
关闭预览

相关内容

ICLR 2022接受论文列表出炉!1095 篇论文都在这了!
专知会员服务
76+阅读 · 2022年1月30日
专知会员服务
23+阅读 · 2021年9月5日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
计算机类 | PLDI 2020等国际会议信息6条
Call4Papers
3+阅读 · 2019年7月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
已删除
将门创投
3+阅读 · 2017年11月3日
【计算机类】期刊专刊/国际会议截稿信息6条
Call4Papers
3+阅读 · 2017年10月13日
Arxiv
0+阅读 · 2022年2月22日
Prepare your video for streaming with Segue
Arxiv
0+阅读 · 2022年2月18日
Arxiv
4+阅读 · 2018年12月3日
Arxiv
8+阅读 · 2018年1月30日
VIP会员
相关资讯
计算机类 | PLDI 2020等国际会议信息6条
Call4Papers
3+阅读 · 2019年7月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
已删除
将门创投
3+阅读 · 2017年11月3日
【计算机类】期刊专刊/国际会议截稿信息6条
Call4Papers
3+阅读 · 2017年10月13日
Top
微信扫码咨询专知VIP会员