本文系网易新闻-智能工作室出品
聚焦AI,读懂下一个大时代!
随着机器人开始进入公众视野,与人类一起工作,研究人员认为,采取安全措施的需求变得更加迫切。
研究人员称,应该给机器人配备一个“道德黑盒子”来追踪他们的决定,使他们能够在事故发生时为自己辩解。随着人工智能已经跨越工业生产线的受控环境,无人驾驶汽车开始盛行,机器人警卫、护理人员和客户助理逐渐出现,因此对此类安全措施的需求变得更加迫切。
本周在萨里大学的一场会议上,科学家们专门讨论了机器人在无人控制的情况下运行的进展。就在几天前,一名名叫史蒂夫的K5安全机器人在华盛顿乔治城巡逻时,摔下了台阶,跳进喷泉里,造成了机器人“自杀”事件,好在这一事件没有造成任何人员的伤亡。
“我们都希望事故越少越好,但它们是不可避免的,”位于布里斯托尔的英格兰西部大学的机器人伦理学教授Alan Winfield说,“在任何地方,机器人和人类共存都会有意外发生的可能性。”
去年5月,一名男子乘坐自己的无人驾驶车特斯拉Model S发生车祸身亡,这是世界上第一例自动驾驶汽车导致死亡的案例。该车的司机坐主驾驶位置,但是将车交由自动驾驶仪控制,但他和汽车的传感器都没有注意到有一辆卡车在横穿马路,于是发生了致命的碰撞,造成了一场悲剧。
美国国家公路交通安全局的调查将责任归咎于这名司机,但这一事件引发了人们的批评,称特斯拉公司实际上是在拿客户做实验,测试其关键安全技术。
斯坦福大学著名的人工智能研究人员Andrew Ng表示,驾驶一种让人产生“错误安全感”的驾驶系统是“不负责任的”。Marina Jirotka是牛津大学人本计算学的教授,他认为,机器人公司应该遵循航空工业的案例,安装黑匣子和驾驶舱语音记录器,这样事故调查人员就能明白是什么导致了飞机坠毁,并确保我们能从中吸取关键的安全教训。安装在机器人上的道德黑盒子将记录机器人的决策,他们的制造依据,运动轨迹,以及相机、麦克风和测距仪等传感器的信息。“
严重的事故需要调查,但如果事故调查人员发现没有内部数据,没有记录事故发生时机器人在做什么,你能做什么?我们几乎不可能知道发生了什么。商用飞机如此安全的原因不仅在于良好的设计,还在于严格的安全认证程序,而且,当事情出了差错的时候,就会出现强有力的、公开的航空事故调查过程。
道德黑箱的引入会给事故调查带来进展。这一设备也使得机器人(比如老年护理助手)可以用简单的语言解释自己的行为,从而提高用户的使用舒适度。
编译:网易见外智能编译机器人
来源:the guardian 审校:吉鑫悦
点击阅读原文,观看更多精彩内容