Jeff Dean:一年开源12款新工具,谷歌负责任AI原则落地生根

2019 年 6 月 29 日 新智元




  新智元报道  

编辑:元子

【新智元导读】自从谷歌宣布AI原则开始,已经过了一年时间。如今Jeff Dean和Kent Walker对原则获得的成果做了汇报。分享他们工作的最新消息,包括内部教育、工具和研究、评估流程、以及外部合作等,进一步验证了该原则有助于指导人工智能在研究和产品中的道德发展和使用。


人工智能已经深入到生活中的方方面面。每天,我们都会看到人工智能通过帮助来自世界各地的人们,为我们的生活带来积极的变化。


例如,帮助放射科医生检测肺癌、提高印度农村的识字率、保护濒危物种等等。甚至来说,人工智能还深入到洪水预报和预测地震余震方面的研究中,通过减轻自然灾害来拯救生命。



随着人工智能业务范围不断地扩展,已经触及到我们曾无法想象的深度和广度,与此同时也引发了围绕公平性和隐私等话题的讨论。


这个话题非常重要,需要全球社会的参与。一年前,谷歌推出了“人工智能原则”,这些原则有助于指导人工智能在我们的研究和产品中的道德发展和使用。



现在,到了检验效果的时候了!谷歌分享了在提出人工智能原则一年后的最新工作进展。


内部员工训练成果


谷歌教育并授权员工了解人工智能的重要问题,批判性地思考如何将人工智能付诸实践。在过去的一年中,成千上万的谷歌员工已经完成了机器学习公平性培训。


此外,谷歌还在四个办事处试行了道德培训,并在三大洲组织了一个人工智能道德系列讲座。


工具和研究成果


在过去的一年里,谷歌专注于分享知识、构建技术工具、更新产品,以及开发负责任、有道德的人工智能框架,以使每个人受益。



谷歌共发布了超过75篇关于“负责任的人工智能”主题的研究论文,涉及机器学习公平性、可解释性、隐私性和安全性。同时开发、开源12款新工具。例如:


  • What-If是一个新工具,允许用户在无需编写代码的情况下分析机器学习模型,将偏差和各种公平约束的影响可视化,并比较多个模型的性能

  • 谷歌翻译通过在谷歌翻译网站上为一些性别中立的词语提供女性和男性翻译,来减少性别偏见

  • 扩展了federated learning的工作,这是一种新的机器学习方法,允许开发人员训练人工智能模型,使产品更智能而无需数据离开设备。已开源

  • “People + 人工智能”指南是一个关于如何构建以人为本的人工智能产品的方法和决策框架的工具包。它于5月推出,包括来自40个谷歌产品团队的贡献


随着谷歌反思最新的技术构想和工作,谷歌承诺会继续每季度更新一次负责任的人工智能实践。


评估流程


评估流程有助于满足人工智能原则。谷歌鼓励所有员工考虑人工智能原则如何影响他们的项目,并且正在改进流程以确保是否新项目、新产品甚至新的交易经过了仔细考虑和评估。谷歌在考虑收益的同时还会评估如何降低风险,例如:


Cloud AI Hub


借助Cloud AI Hub,企业和其他组织可以共享并更轻松地访问各种已经过训练的机器学习模型。


介于AI Hub的大部分内容将由谷歌以外的第三方组织发布,导致难以评估人工智能原则中的所有内容。


因此,谷歌评估了围绕发布AI Hub的道德考虑因素,例如有害的双重使用、滥用或提供误导性信息的可能性。


在评估过程中,团队制定了一个处理潜在风险和有害内容的双层策略:


  • 鼓励社区成员权衡诸如不公平偏见等问题。为了支持社区,Cloud AI提供资源(如包容性机器学习指南),以帮助用户识别可信赖的内容

  • 为Cloud AI Hub制定服务条款,特别是有关内容和行为限制的部分


这些保护措施使AI Hub的内容生态系统更有可能实用且维护良好,保证可以继续推进AI Hub。


文字转语音(TTS)研究论文


谷歌的一个研究小组撰写了一篇学术论文,探讨了人工智能研究中的一项重大挑战:系统通常需要从头开始重新训练,拥有大量数据,甚至可以承担稍微不同的任务。


本文详细介绍了一种有效的文本到语音(TTS)网络,它允许系统进行一次训练,然后适应新的扬声器,所需时间和数据更少。


虽然更智能的文本到语音网络可以帮助患有语音障碍、肌萎缩侧索硬化症或气管切开术的患者,但谷歌认识到这些技术可能被用于有害应用,例如为了欺骗目的而合成某人的声音。


最终,谷歌确定该文件中描述的技术由于多种原因(包括使其生效所需的数据质量),被滥用的可能性比较有限,来自互联网的录音都不能达到被滥用的要求。


此外,网络产生的样本与发言者的声音之间存在足够的差异,以便听众识别出什么是真实的人声。


综合评估后谷歌得出结论,本论文符合人工智能原则。这项工作加强了对识别和预先制止可能的滥用的承诺。


与外部利益相关者合作


与更广泛的社区进行持续探讨,对发展具有社会责任感的人工智能至关重要。谷歌与政策制定者和技术社区合作,参加了100多个研讨会、研究会议和峰会,并直接与全球4000多名利益相关者进行了接触。


随着人工智能的不断发展,谷歌将继续分享观点,并与学术界、行业界和政策制定者合作,促进人工智能的负责任发展。


谷歌支持针对特定行业和用例量身定制的智能监管。今年早些时候,谷歌发布了《关于人工智能治理问题的观点》白皮书,以帮助促进实施务实和前瞻性的方法。它概述了政策制定者应与民间社会和人工智能实践者合作的五个领域,以发展人工智能的框架。


谷歌认识到,总会有更多工作要做,并将继续与来自不同行业的领导者、政策制定者、学者和其他利益相关者合作,以解决这些重要问题,做好正确的工作,并确保包含最广泛的观点,使生活变得更好。


参考链接:

https://www.blog.google/technology/ai/responsible-ai-principles/


登录查看更多
0

相关内容

Google Research Group的Google高级研究员,他与人共同创立并领导了Google Brain团队,即Google的深度学习和人工智能研究团队。他和他的合作者正在研究语音识别,计算机视觉,语言理解和各种其他机器学习任务的系统。Jeff在Google期间,曾对Google的爬网,索引和查询服务系统,Google的主要广告和AdSense for content系统的主要部分以及Google的分布式计算基础结构(包括MapReduce,BigTable和Spanner)进行代码签名。杰夫(Jeff)是ACM和AAAS,美国国家工程院院士,计算机科学ACM -Infosys基金会奖获得者。他拥有华盛顿大学的计算机科学博士学位,在那里他与Craig Chambers一起研究了面向对象语言的全程序优化技术,并获得了明尼苏达大学的计算机科学和经济学学士学位。
专知会员服务
125+阅读 · 2020年3月26日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
197+阅读 · 2020年3月8日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
55+阅读 · 2020年2月18日
谷歌机器学习速成课程中文版pdf
专知会员服务
146+阅读 · 2019年12月4日
21个必须知道的机器学习开源工具!
AI100
13+阅读 · 2019年9月13日
AutoML: A Survey of the State-of-the-Art
Arxiv
72+阅读 · 2019年8月14日
Interpretable Adversarial Training for Text
Arxiv
5+阅读 · 2019年5月30日
Structure Aware SLAM using Quadrics and Planes
Arxiv
4+阅读 · 2018年8月13日
Arxiv
6+阅读 · 2018年4月23日
Arxiv
11+阅读 · 2018年1月15日
Arxiv
4+阅读 · 2017年11月4日
VIP会员
Top
微信扫码咨询专知VIP会员