Autonomous robots are currently one of the most popular Artificial Intelligence problems, having experienced significant advances in the last decade, from Self-driving cars and humanoids to delivery robots and drones. Part of the problem is to get a robot to emulate the perception of human beings, our sense of sight, replacing the eyes with cameras and the brain with mathematical models such as Neural Networks. Developing an AI able to drive a car without human intervention and a small robot to deliver packages in the city may seem like different problems, nevertheless from the point of view of perception and vision, both problems have several similarities. The main solutions we currently find focus on the environment perception through visual information using Computer Vision techniques, Machine Learning, and various algorithms to make the robot understand the environment or scene, move, adapt its trajectory and perform its tasks (maintenance, exploration, etc.) without the need for human intervention. In this work, we develop a small-scale autonomous vehicle from scratch, capable of understanding the scene using only visual information, navigating through industrial environments, detecting people and obstacles, or performing simple maintenance tasks. We review the state-of-the-art of fundamental problems and demonstrate that many methods employed at small-scale are similar to the ones employed in real Self-driving cars from companies like Tesla or Lyft. Finally, we discuss the current state of Robotics and autonomous driving and the technological and ethical limitations that we can find in this field.


翻译:自主机器人是目前最受欢迎的人工智能问题之一,在过去十年中,自驾驶汽车和人造体到提供机器人和无人驾驶飞机,这方面取得了显著进步。问题的一部分是让机器人模仿人类的感知、我们的视觉感知、用摄像头和大脑取代眼睛,用神经网络等数学模型取代视像和大脑。开发一个能够驾驶没有人类干预的汽车的人工智能和小型机器人在城市提供包裹的小型机器人,这似乎是不同的问题,尽管从视觉和视觉的角度来看,这两个问题都有若干相似之处。我们目前找到的主要解决办法是通过视觉信息,利用计算机视觉技术、机器学习和各种算法,使机器人了解环境或场景,移动,调整其轨迹和任务(维持、探索等),而不需要人类干预。在这项工作中,我们开发了一种小型的自主工具,能够从零到仅通过视觉信息找到场景,通过工业环境探测人和障碍,或者执行简单的维护任务。我们目前通过计算机视野、机器学习和各种算法来关注环境的视觉信息,通过视觉信息,通过视觉信息、机器算术和各种算算法来使机器人了解环境的视觉信息,我们最终在现实和汽车上都能够讨论。我们所使用的许多技术上采用的方法,在现实和机械上都像型的自我定位和机械上都能够讨论。我们所使用的许多方法。我们所使用的方法,可以用来用来讨论。我们所使用的方法,在现实和机型的自我定位和机动式式式的机型的自我上和机械式技术限制。我们所使用的许多方法。我们用的方法,可以展示式的状态和机动式的状态和机动制式的机动式的机动式的手法式的手法式的机动式的机动式的机动式的手法。我们用的方法可以用来讨论。

1
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2020年9月6日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
79+阅读 · 2020年7月26日
Python计算导论,560页pdf,Introduction to Computing Using Python
专知会员服务
74+阅读 · 2020年5月5日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
97+阅读 · 2019年12月23日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
【泡泡一分钟】用于深度双目的非监督适应方法(ICCV-2017)
泡泡机器人SLAM
10+阅读 · 2018年10月7日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
24+阅读 · 2021年6月25日
Arxiv
4+阅读 · 2018年12月3日
VIP会员
相关VIP内容
专知会员服务
41+阅读 · 2020年9月6日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
79+阅读 · 2020年7月26日
Python计算导论,560页pdf,Introduction to Computing Using Python
专知会员服务
74+阅读 · 2020年5月5日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
97+阅读 · 2019年12月23日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
相关资讯
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
【泡泡一分钟】用于深度双目的非监督适应方法(ICCV-2017)
泡泡机器人SLAM
10+阅读 · 2018年10月7日
机器人开发库软件大列表
专知
10+阅读 · 2018年3月18日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员