机器人是一种颠覆现实世界的创新,但在它们特定的领域之外,它们的用处是非常有限的。因此,灵活性是一个不断研究的领域。三款新的机器人装置展示了它们可以进化到适应新情况的方式:摔倒后可以借助两只“手”站起来,以及理解他们从未见过的视觉指令。
这些机器人都是独立研发的,今天将在《科学机器人》(Science Robotics)专门研究学习的专刊上发表。每一款机器人都传达出:机器人可以改善他们与现实世界的互动。
能够用“手”敏捷抓取物体的机器人
首先是在工作中使用正确工具的问题。由于人类的手指的灵活性以及多功能性,我们可以很容易完成这个任务。我们能够从我们的生活经验中理解我们需要用钳子夹起这个轻的物体或者我们需要借助工具才能搬动这个重物等等。
当然,机器人没有这方面的固有知识,这会让事情变得困难;它可能不理解它无法拾起某种给定大小、形状或纹理的东西。伯克利的机器人专家开发了一种新系统,它可以作为一种基本的决策过程,将物体分为能用普通钳子夹住或用吸盘夹住的两类。
一个在手臂末端同时安装这两种工具的机器人,可以通过使用基于深度的图像来决定抓取什么物品应该使用什么工具;测试结果表明,即使是在成堆的物体,其可靠性也非常高,这是以前从未见过的。
它是通过神经网络来完成的,这个神经网络部署了数百万个关于物品、安排和试图获取它们的数据点。如果你想用吸盘抱起一只泰迪熊,但前一万次都失败了,你还会继续尝试吗?这个系统能够学会了做出此类的决定,这样的事情对于在仓库完成挑选任务的机器人来说是非常重要的。
有趣的是,伯克利的Ken Goldberg在一封电子邮件中解释道,由于复杂神经网络的“黑盒”性质,很难确切地说出Dex-Net 4.0的选择实际上是基于什么,尽管有一些明显的偏好。神经网络的“黑箱子”是指:一般来说, 神经网络是一连串神经层所组成的把输入进行加工再输出的系统。中间的加工过程就是我们所谓的黑盒。
他写道:“我们从经验上发现,,远离边缘的光滑平面通常在吸力模型中得分较高,而对映点在抓取模型中得分较高。”
现在可靠性和通用性都很高了,下一步是速度;Goldberg说,该团队正在“研究一种令人兴奋的新方法”来减少网络的计算时间,毫无疑问,这将在未来的论文中被叙述。
摔倒后能够站起来的机器人
四肢行走的机器人已经很灵活了,它们能自信地处理各种地形。但是当他们摔倒的时候,基本就是灾难区。一般来说,他们靠自己是没法重新站起来的。
这些机器人的腿的配置方式使得它们很难完成在直立方式下能做到的事情。不过,由苏黎世联邦理工学院(ETH Zurich)开发的机器人ANYmal配备一个更多功能的装置,可以让它的腿获得额外的自由度。
这个额外的自由度有什么用?可以做各种事情。但是要找出机器人运动的最佳方式来达到速度和稳定性的最大化是非常困难的。那么,为什么不使用模拟来同时测试数千个奇迹人可能遇到的不同场景,并将其结果用于现实世界呢?
这种基于模拟的学习并不总是有效,因为现在还不可能准确地模拟所有涉及到的物理现象。但是它可以产生非常新颖的行为,或者简化人类认为已经是最优的行为。
无论如何,苏黎世联邦理工学院的研究人员的新研究不能仅让机器人跑得更快,还教会了它一个惊人的新技巧:从跌倒中爬起来。不管怎么跌倒都能爬起来。听起来很优秀吧!
令人惊奇的是,这个机器人发明了一种基本的技术,可以从几乎任何可能的摔倒中站起来。记住,这不是人们设计出来的——是模拟和进化算法通过反复尝试数千种不同的行为,并保持那些有效的行为而得到的。
能够读懂抽象指令并与现实世界连接起来的机器人
假设给你三个碗,中间那个碗里有红球和绿球。然后给你一张纸:
人类具有大脑,你根据这张纸上的指示,你就会明白绿色和红色的圆圈代表着这些颜色的球,红色的要往左,绿色的要往右。
这是一种人类应用大量知识和直觉理解却没有意识到的事情。你是怎么决定用圆圈来代表这些球的?因为形状?那么为什么箭头不指向“真正的”箭头呢?你怎么知道向右或向左走多远?你怎么知道这张纸上的内容就是告诉你某种规则?你可以在瞬间解决所有的问题,但任何一个问题都可能难倒机器人。
研究人员已经迈出了一小步,他们希望能够将上述抽象的表象与现实世界联系起来,而这一任务涉及到大量的机器创造力或想象力。
在图中的白色背景上的绿点与现实世界中黑色背景上的绿色圆形物之间建立连接并不明显,但由Miguel Lázaro-Gredilla和他的同事在Vicarious AI创造的“视觉认知计算机”似乎表现的就很不错。
当然,它现在还非常不完善,但在理论上,它是人们用来组装一件宜家家具的相同工具集:查看一个抽象的表示,将它与现实世界的对象连接起来,然后根据指令操作这些对象。我们离这个目标还有好几年的时间,但就在不久前,我们离机器人自己从跌倒中爬起来,或者决定用吸盘或钳子更好地捡起东西还有好几年的时间。