五问Google Duplex:它是否合乎伦理道德?

2018 年 5 月 16 日 AI前线 Chris Butler
译者 | 张健欣
编辑 | Vincent
AI 前线导读:近日,谷歌在 Google IO 大会上演示的 Duplex 项目惊艳全场。许多人工智能社区的人将它称颂为技术结合的一次巨大进步,但也不人提出担忧:它合乎伦理吗?它合乎道德吗?它合法吗?它是以人类为中心的吗?它被坏人利用了怎么办?本文将围绕这些问题,逐一进行探讨。

更多干货内容请关注微信公众号“AI 前线”,(ID:ai-front)

近日,在 Google IO 大会上,一个名为 Duplex 的项目通过电话将对一个谷歌助手的请求和一个现实世界的真实业务连接起来。

你可以通过下面的链接观看其令人印象深刻的演示:


许多人工智能社区的人立即将它称颂为技术结合的一次巨大进步。

然而,有人担忧:

谷歌助手通过使用升调和语言中的其它特殊语调,像人类一样发音,误导电话另一头的人以为正在通话的是一个人类,这种道德上的错误让我真的感到非常困扰不安。

虽然对于那些还没有不良用途的技术的任何普遍直觉反应,我经常持怀疑态度,但是关于这件事还是有一些非常好的观点应该被讨论。

它合乎伦理吗?

上周,我参加了 edX(译者注:一个大规模开放在线课堂平台)上的一个微软主办的名为“数据和分析领域的道德与法律”的在线课程。对我来说,最有趣的是他们看待伦理价值观的一个非常简单的框架。

这个框架分为两个价值体系:

1)基于他人(在本例中,指的是接听电话的业务人员)幸福的价值观;

2)基于自身(谷歌和我混合的)幸福的价值观。关于他人的幸福包括:非受苦、人身自由、平等。自身幸福集中于品德和信任。

让我们逐个看下这些价值观:

  • 非受苦——在本例中,电话接听人看起来并不会以某种方式受苦。如果有的话,我敢打赌机器会始终彬彬有礼并抓到要点,所以人们不会在电话中没完没了。

  • 人身自由——电话接听者仍然可以按他们认为合适的方式反应,他们可以询问他们需要知道的问题,并且他们甚至可以拒绝接听来电。

  • 平等——可能会缺失平等,因为我使用这种服务来节省了我的时间,但是并没有尊重接听者的时间。一个很好的问题是,对于那些通过支持自动化系统而不尊重我的某些意愿的企业,我们如何权衡这点?

  • 品德——我没有看到,如果它声明它是一个帮我预定服务的助手,对我的品德有什么损害。

  • 信任——这会是最有问题的价值观。随着这样的电话越来越多,人们还会相信 Duplex 或任何呼叫人所声称的身份吗?

它合乎道德吗?

谷歌拥有这种服务是合乎道德的吗?我不认为他们会用这项技术作恶。

使用这项服务的人是合乎道德的吗?这基于他们自己持有的道德准则。不幸的是,我们在不同的时代持有不同的道德准则。

在社会中,我们确实都尝试进行道德自律,但它实际上归结于什么是法律强制的,因为除了 Twitter 上的群情激愤之外并没有道德法庭。

它合法吗?

基于我对机器人呼叫(robocalls)的了解,这是合法的。例如,它并不是“不恰当或不适宜的“,也没有群发向“一大群接收者“。

然而,我不确定企业是否能够一起在技术上自愿放弃这种类型的呼叫。

这意味着我们应该管控这些技术吗?或许是的。魔鬼肯定存在于细节之中,虽然...

我们应该让人工智能听起来跟人类的声音不一样,这和我们在没有气味的天然气中添加有味的添加剂的原因一样。

关于如何管制这类并不是 100% 相似的事情是一个很大的问题。我们管控天然气不是因为它关乎道德或伦理,而是因为它很危险。

我最大的担忧是,国家管控只会让谷歌的地位更加强大。他们有足够的金钱 / 时间 / 人来把这些标准付诸实践。规模较小的公司由于资源有限,没有能力与之竞争。

它是以人类为中心的吗?

我发现这个问题比较容易回答,而且我敢打赌谷歌就是因为这个才创造 Duplex 的。它在整个循环中帮助每一个人。

对于那些想要预定的人来说,他们节省了必须与企业打电话协商的交流时间。这也是为什么像 Seamless 这样的服务这么流行的原因。

对于收到呼叫的人来说,他们正在为一个不愿意允许以某种方式自动预订的企业工作。语音恰好是系统与之交互的最简单的方式。

一个很大的问题是,企业是否应该选择放弃这种类型的交互。当然,这可能对客户是不利的,但那是他们如何运营企业的选择。

有人问过在这些企业工作的人会在意这点吗?甚至他们会在乎吗?

被坏人利用怎么办?

大部分人担心的是,其他人可能会使用这项技术做坏事。例如,我们可以想象,你可能会收到机器人程序集中关于出售分时度假房的呼叫,通过要求虚假支付来诈骗你以及普遍的数据采集。

技术的所有不良用途一定意味着我们不应该拥有这种技术吗?显然情况并非如此。这有点像,被用于恐怖袭击的汽车是否应该被禁止。当然,来自汽车的好处超过了那些非常小的情况所带来的坏处。

细微差别如果有的话,这是一个棘手的话题。在上下文中需要有细微的差别。

这会导致许多愤慨和偏袒。

我们应该讨论这些细微差别,我们应该讨论我们对于自身生存的世界的混乱信仰的信任意味着什么。

我很想听听你的想法。

  作者自述

我帮助许多团队了解以人工智能为中心的方案应该解决的实际业务问题。我们共事的团队通常都被要求用他们拥有的数据“做一些有趣的事情”。我们帮助他们避免偶然事件的关联所产生的局部最大值,专注于解决巨大的商业问题。我的背景包括超过 18 年的产品和业务开发经验,任职公司包括微软、KAYAK 和 Waze。在 Philosophie,我曾创建了例如针对机器的同感映射和困惑映射等技术,来在构建人工智能产品时创建跨团队的结盟。如果你想要了解更多信息或与我联系,可以通过电子邮件、LinkedIn 或者访问 http://philosophie.is/human-centered-ai。

查看英文原文:

https://towardsdatascience.com/is-google-duplex-ethical-and-moral-f66a23637640

AI前线
紧跟前沿的AI技术社群

如果你喜欢这篇文章,或希望看到更多类似优质报道,记得点赞分享哦!

┏(^0^)┛明天见!

登录查看更多
0

相关内容

一家美国的跨国科技企业,致力于互联网搜索、云计算、广告技术等领域,由当时在斯坦福大学攻读理学博士的拉里·佩奇和谢尔盖·布林共同创建。创始之初,Google 官方的公司使命为「整合全球范围的信息,使人人皆可访问并从中受益」。 Google 开发并提供了大量基于互联网的产品与服务,其主要利润来自于 AdWords 等广告服务。

2004 年 8 月 19 日, 公司以「GOOG」为代码正式登陆纳斯达克交易所。
【ACL2020-Google】逆向工程配置的神经文本生成模型
专知会员服务
16+阅读 · 2020年4月20日
德勤:2020技术趋势报告,120页pdf
专知会员服务
190+阅读 · 2020年3月31日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
195+阅读 · 2020年3月8日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
人工智能少女的四年蛰伏
乌镇智库
3+阅读 · 2018年8月27日
为什么欧盟呼吁共建 AI 伦理准则?
AI科技评论
3+阅读 · 2018年3月14日
人工智能的阴暗面
计算机与网络安全
6+阅读 · 2018年1月8日
美国硅谷预测10年后的世界,再不懂你就落伍了
凤凰财经
4+阅读 · 2017年9月14日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
The Matrix Calculus You Need For Deep Learning
Arxiv
12+阅读 · 2018年7月2日
VIP会员
相关资讯
人工智能少女的四年蛰伏
乌镇智库
3+阅读 · 2018年8月27日
为什么欧盟呼吁共建 AI 伦理准则?
AI科技评论
3+阅读 · 2018年3月14日
人工智能的阴暗面
计算机与网络安全
6+阅读 · 2018年1月8日
美国硅谷预测10年后的世界,再不懂你就落伍了
凤凰财经
4+阅读 · 2017年9月14日
相关论文
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
The Matrix Calculus You Need For Deep Learning
Arxiv
12+阅读 · 2018年7月2日
Top
微信扫码咨询专知VIP会员