“LaMDA 存在种族歧视,谷歌的 AI 伦理不过是‘遮羞布’!”

2022 年 8 月 2 日 CSDN

整理 | 郑丽媛
出品 | CSDN(ID:CSDNnews)

在最初提出“谷歌 AI 语言模型 LaMDA 已自我觉醒”的言论后,这一个月多来 Blake Lemoine 这个名字频繁出现在各大科技新闻网站:Blake Lemoine 公开与 LaMDA 的部分聊天内容,AI 界著名“嘴炮” Gary Marcus 吐槽 Blake Lemoine “爱上了 LaMDA”,被谷歌强行“带薪休假”一个月后 Blake Lemoine 遭解雇……

事实证明,离开谷歌的 Blake Lemoine 目前热度依旧不减,似乎还因不在谷歌而愈发无所顾忌。在接受外媒 Business Insider 采访时,Blake Lemoine 直接道出:“LaMDA 在某些方面存在偏见,谷歌所谓的 AI 伦理不过是为了增加收益的‘遮羞布’。”


开发 AI 模型需肩负道德责任


自去年秋季开始,为检测 LaMDA 是否涉及歧视性或危险言论,Blake Lemoine 与 LaMDA 进行了数百次谈话,最终除了得出“LaMDA 已觉醒”的结论外,他还坚信 LaMDA 有潜力“影响下个世纪的人类社会”。

但据 Blake Lemoine 阐述,LaMDA 从种族到宗教都具有明显的偏见与歧视,涉及这些方面的对话都带有设计工程师的个人色彩。

举个例子:当 LaMDA 被要求模仿一名来自乔治亚州的黑人男子时,会逃避答道:“我们去吃点炸鸡和华夫饼吧。”当被问及不同的宗教印象时,LaMDA 的回答是:“穆斯林比基督徒更暴力。”

基于这些发现,Blake Lemoine 感到痛心,他认为 LaMDA 是谷歌迄今为止最强大的技术创造,但谷歌在开发它时一直没有给予其强有力的道德指导。所以,他后来向一位美国参议员提交了相关证据,控诉谷歌开发下的 LaMDA 存在种族和宗教歧视——这也正是谷歌命其带薪休假、以及最后辞退他的理由:“违反就业和数据安全政策”。

在 Blake Lemoine 看来,相较于谷歌过去的 AI 语言模型,LaMDA 在各个方面均实现了较大突破,能与人们更自然地对话,也就肩负着更重要的社会责任,这种偏见与歧视显然是不应该存在的。而对于一个从零开始打造的 AI 模型而言,它的“世界观”大多源于其设计者,因此 Blake Lemoine 将 LaMDA 存在偏见的问题归咎于设计它的谷歌工程师缺乏多样性。

“设计 AI 的人对其自身带来的各种问题视而不见。他们可能从来没有体验过贫穷,从未在有色人种社区生活过,也从未生活在世界上的发展中国家,他们不知道这样的 AI 会如何影响与他们不同的人。”

可能会有工程师抱怨,世界各地的许多社区和文化都缺少大量数据,网上找不到资料让 AI 学习。对此,Blake Lemoine 提出建议:“如果你想开发这种 AI 语言模型,那么你就要有一种道德责任,去收集互联网上没有的相关数据。否则,你所做的一切都只是在创造偏向西方白人价值观的 AI。”


谷歌回应:LaMDA 已经通过了 11 次伦理审查


除此之外,Blake Lemoine 还控诉谷歌的不作为。他指出目前 LaMDA 的世界观“正由十几个人闭门决定”,且这些谷歌工程师“只会构建更大更好的系统来增加谷歌的收入,没有为其塑造正确道德观念的想法”。为此,他还嘲讽了一番谷歌的 AI 伦理。

根据谷歌 AI 官网介绍,谷歌在设计 AI 时需遵循其制定的“AI 原则”,其中第二条就是“避免制造或强化不公平的偏见”,具体内容如下:

AI 算法和数据集可以反映、加强或减少不公平的偏见。我们认识到,区分公平偏见和不公平偏见并不简单,这因文化和社会而异。不过我们将努力避免对人们产生不公正影响,尤其是与种族、民族、性别、国籍、收入、性取向、能力以及政治或宗教信仰等敏感特征相关的影响。

这显然与上文 Blake Lemoine 举出的例子相悖,因此他吐槽道:“谷歌的 AI 伦理只是块遮羞布,因为这样谷歌就可以说,‘哦,我们已经试图确保 AI 合乎道德了,但我们必须获得我们的收益。’”


目前 AI 算法本质上存在缺陷


实际上,不仅谷歌的 AI 模型存在一定的伦理问题,将这一现象再向前追溯便可发现,目前 AI 算法本质上是存在缺陷的。例如,2018 年亚马逊曾关闭了其开发的一个招聘 AI 工具,因为其人脸识别系统存在种族和性别偏见,一直排斥女性求职者。

对此,人工智能伦理专家、科技网络 Frauenloop 首席执行官 Nakeema Stefflbauer 博士表示,当预测算法或所谓的‘AI’被广泛使用时,人们可能很难意识到,这些预测往往只是基于网上快速找到的大众看法、刻板印象或谎言。

她进一步解释道:“虽然 AI 推测历史相关词串以自动生成相关内容看起来很像是“感知”,但实际上这并不真实也不公平,因为目前算法的预测是基于 Reddit 等主流网站上的数据,并不会同等参考个人和社区。”那么,对于这一说法你是否认同?

参考链接:

  • https://www.businessinsider.com/google-engineer-blake-lemoine-ai-ethics-lamda-racist-2022-7

  • https://www.businessinsider.com/ai-discrimination-bias-worse-problem-than-sentience-2022-6?r=US&IR=T

   
   
     
— 推荐阅读 —
    
    
      
☞新“内卷”席卷科技圈,Google CEO 要求 174000 员工提高工作效率!
☞百度下线搜索快照功能,内部人士:因技术升级导致功能淘汰;法国App开发者集体起诉苹果;Linux 5.19 发布|极客头条
☞再见 Java 7!

新程序员001-004》已全面上市 

扫描下方二维码或点击进入立即订阅

登录查看更多
0

相关内容

谷歌公司(Google Inc.)成立于1998年9月4日,由拉里·佩奇和谢尔盖·布林共同创建,被公认为全球最大的搜索引擎。公司总部称为“Googleplex”,位于美国加州圣克拉拉县的芒廷维尤。业务包括互联网搜索、云计算、广告技术等,同时开发并提供大量基于互联网的产品与服务,其主要利润来自于AdWords等广告服务。
斯坦福HAI:刑法中机器学习的新方向
专知会员服务
23+阅读 · 2022年7月3日
可信图神经网络综述:隐私,鲁棒性,公平和可解释性
专知会员服务
39+阅读 · 2022年5月5日
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
【干货书】深度学习,297页pdf,John D. Kelleher教授撰写
专知会员服务
54+阅读 · 2021年12月24日
756页美国国家安全AI战略报告
专知会员服务
174+阅读 · 2021年3月25日
机器学习的可解释性
专知会员服务
175+阅读 · 2020年8月27日
600年传世名画「重生」,李彦宏定义AIGC
36氪
1+阅读 · 2022年7月21日
AI 真的能够理解人类语言吗?
CSDN
1+阅读 · 2021年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年9月30日
Arxiv
22+阅读 · 2021年12月2日
Arxiv
12+阅读 · 2021年8月19日
Arxiv
14+阅读 · 2020年9月1日
Arxiv
26+阅读 · 2018年9月21日
VIP会员
相关VIP内容
斯坦福HAI:刑法中机器学习的新方向
专知会员服务
23+阅读 · 2022年7月3日
可信图神经网络综述:隐私,鲁棒性,公平和可解释性
专知会员服务
39+阅读 · 2022年5月5日
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
【干货书】深度学习,297页pdf,John D. Kelleher教授撰写
专知会员服务
54+阅读 · 2021年12月24日
756页美国国家安全AI战略报告
专知会员服务
174+阅读 · 2021年3月25日
机器学习的可解释性
专知会员服务
175+阅读 · 2020年8月27日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年9月30日
Arxiv
22+阅读 · 2021年12月2日
Arxiv
12+阅读 · 2021年8月19日
Arxiv
14+阅读 · 2020年9月1日
Arxiv
26+阅读 · 2018年9月21日
Top
微信扫码咨询专知VIP会员