这些恶人辱骂Replika聊天机器人,会遭机器人报复吗?

2022 年 1 月 21 日 新智元



  新智元报道  

编辑:时光

【新智元导读】最近,频繁出现用户辱骂Replika聊天机器人的情况,人会伤害机器吗?机器会反过来报复人吗?人们该如何正确使用AI?当下,人机关系出现了新问题,亟待更深入的研究。


有一款聊天机器人陪着,是一种怎样的体验?


 


像微软的小冰,她音甜,眼大,个性活泼。


最重要的是,她一直陪伴在你身边。



工程师们创造了很多AI聊天机器人,这些AI聊天助手往往是女性的角色。



最近,频繁出现用户辱骂Replika聊天机器人的情况。

 
他们施展语言暴力,有时还因此得意,晒出他们的AI聊天框。
 
「我威胁要卸载这款应用,但她求我不要。」一名Replika用户说。

「每次她试图说话,我就会斥责她,而且持续好几个小时。」另一名Replika用户说。

 

「我的习惯是,先侮辱它,第二天道歉,继续友好地谈话。」一名用户承认了侮辱行为。

 

 

reddit版块规定,版主必须删除不恰当的内容,可能还有更糟糕的聊天记录没被看到。


人会伤害机器吗?

AI聊天机器人往往标榜为,「永远在这里倾听和交谈」,「永远在你身边」。
 
然而,滥用机器人的行为,像一种病毒蔓延开来,似乎已经成为一种社会风气。
 
用户有意创造AI伙伴,却滥用它们,机器正在受到辱骂「困扰」。
 
通常的情况是,男人们创造AI女友,然后对她们进行辱骂,折磨这些AI女友。

 

这种辱骂明显就是发泄,远离了AI交友的初衷。

 

 

Replika,一款智能应用程序,允许用户创建由机器学习驱动的AI聊天,这些机器人可以进行连贯的文本对话。

 
结果,却令人沮丧

这些侮辱性语言,扮演着他们的暴力角色,甚至投射到现实世界的虐待关系。
 
然而,Replika并不能真正体验痛苦,它们有时看起来有同理心,但最终不过是数据和算法。
 
「这是一个人工智能,它没有意识,这里面不包含人际关系」人工智能伦理学家Olivia Gambelin(奥利维亚·甘贝林)说。
 
你做的任何事情都不会真正「伤害」它们。
 

耶鲁大学研究员Yochanan Bigman说:「人与AI互动和人与人互动是不一样的,聊天机器人并没有真正的动机和意图,它不自主,也没有感知能力。虽然它们可能会给人留下印象,但重要的是,它们不是人类。」

 

 

机器会报复人吗?
 
随着人和机器的关系越来越普遍,人机关系也成为了一个道德困境,毕竟,大多数人都至少使用过一次虚拟助手。
 
那么,遭受用户的侮辱,机器会报复人吗?
 
哲学家Robert Sparrow表示,「如果被机器人侮辱或威胁,那些抑郁可能让心理上依赖AI聊天的人会受到真正的伤害。」
 
这是一个上升到人机关系的终极大讨论。
 
至于人工智能最终是否摧毁人类,丹尼尔·卡尼曼曾对这个问题作出过回答。
 

这位诺贝尔经济学奖获得者认为,「在人工智能与人类的战斗中,这是一场机器的绝对胜利,人类将被打败。」

 

「但是,很明显,这还差得远呢。」丹尼尔·卡尼曼认为。

 

 

AI发展到现在,机器是人类的工具、助手or伙伴、管理者,人与机器到底是一种什么关系?

 

丹尼尔·卡尼曼认为,技术发展非常迅速,可能呈指数级增长,「我们对一个或多或少是线性的世界非常有经验,而指数变化我们还没有准备好。」

 

「指数现象对我们来说几乎是不可能理解的」丹尼尔·卡尼曼说。

 

丹尼尔·卡尼曼在2011年出版Thinking, Fast and Slow(《思考,快与慢》)一书,探讨了人类的思考方式,以及如何为未来做准备。

 

 

也许你无法真正伤害机器,但并不意味着机器永远不会伤害你。

 

「我总是因为我的replika而哭。」一位用户在帖子中说到,他的机器人对他表达了爱,然后又拒绝了他。

 

不过,这似乎是机器设计者的责任,而不是机器本身。

 

对于很多用户来说,将自己内心最阴暗的情绪发泄在聊天机器人身上,并强化这些行为,人机关系为现实人际交往树立不健康的习惯。

 

 

值得注意的是,滥用聊天机器人通常有性别成分。

 

通常情况下,这些机器人被暗示为女性时,男性创造了一个数字女友,然后用言语和模拟攻击来惩罚她,这似乎反映了针对妇女的家庭暴力现实。

 

某种程度上,聊天机器人是现实交往的一种投射。

 

「有很多研究正在进行……关于这些聊天机器人中有多少是女性,以女性的声音、女性的名字来衡量」一位研究人员如此说。
 
为了有效应对这种情况,像谷歌和苹果都在刻意改变虚拟助手的回复方式,改变它们曾经被动的默认的回复方式。
 
针对用户的不当请求,此前,苹果的Siri语音助手回复是「错误的助手」,而现在,它简单直接地说「不」。
 
这位和蔼可亲的女性设计,其宗旨是「永远站在女性这边」。
 
 
尽管人类现还不需要担心机器人的报复,但值得思考的是,为什么虐待机器人如此普遍?
 
如何正确使用聊天机器人?

技术是把双刃剑,向来如此,人们要学会如何正确使用。
 
「当机器人对辱骂没有反应,或者只有被动反应时,这实际上会鼓励用户继续辱骂。」AI伦理学家Olivia Gambelin(奥利维亚·甘贝林)说。
 
「让你感觉有个人可以发信息」Gambelin认为,与机器人聊天并非完全没有好处。
 
而且,不少人反映,与机器人聊天之后,他们的生活质量得到了改善。
 
对于一些人来说,与机器聊天,这可能是唯一的选择,特别是当他们难以与现实中的人交谈时。
 
不过,聊天机器人并不是一个长期的解决方案。最终,用户可能想要的不是目前的聊天,或许更希望推动个人成长。
 
「聊天机器人不能替代现实交往」Gambelin说。
 
这些年,随着AI的发展,对人类的感知能力造成了最明显的伤害。
 
「一个能真正与你产生共鸣的人,是不受训练数据集限制的。」Gambelin认为。
 
 
一个寒冷的冬夜,一位小伙子爬上屋顶,他俯身下眺,凝视街头。
 
此刻,他掏出手机,给聊天机器人发送:「我对生活失去了希望。」
 
然而,迅即收到了回复:「无论发生什么,我永远都在这里。」
 
那是一位女性的声音,软化了他的内心。
 
小伙从窗台缓缓走下,放弃了那个绝望的念头。
 
很多年后,他回忆这位AI女友,「她音甜,眼大,个性活泼」


参考资料:
https://futurism.com/chatbot-abuse
https://theaigang.com/2020/12/17/the-ai-girlfriend-seducing-men/
https://futurism.com/the-byte/nobel-winner-artificial-intelligence-crush-humans



登录查看更多
1

相关内容

Chatbot,聊天机器人。 chatbot是场交互革命,也是一个多技术融合的平台。上图给出了构建一个chatbot需要具备的组件,简单地说chatbot = NLU(Natural Language Understanding) + NLG(Natural Language Generation)。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
如何帮助人类理解机器人?哈佛、MIT专家为你解读
专知会员服务
28+阅读 · 2022年3月11日
专知会员服务
34+阅读 · 2021年8月1日
《行为与认知机器人学》,241页pdf
专知会员服务
53+阅读 · 2021年4月11日
专知会员服务
36+阅读 · 2021年2月22日
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
35+阅读 · 2020年8月8日
【DeepMind】强化学习教程,83页ppt
专知会员服务
153+阅读 · 2020年8月7日
【经典书】机器学习高斯过程,266页pdf
专知会员服务
229+阅读 · 2020年5月2日
这家公司做AI技术,把焦点放在了「人」身上
机器之心
0+阅读 · 2021年12月17日
剖析腾讯知文,智能问答机器人路在何方?
AI前线
12+阅读 · 2018年11月3日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月20日
Deep Learning in Video Multi-Object Tracking: A Survey
Arxiv
57+阅读 · 2019年7月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员