Artificial intelligence (AI) systems will increasingly be used to cause harm as they grow more capable. In fact, AI systems are already starting to be used to automate fraudulent activities, violate human rights, create harmful fake images, and identify dangerous toxins. To prevent some misuses of AI, we argue that targeted interventions on certain capabilities will be warranted. These restrictions may include controlling who can access certain types of AI models, what they can be used for, whether outputs are filtered or can be traced back to their user, and the resources needed to develop them. We also contend that some restrictions on non-AI capabilities needed to cause harm will be required. Though capability restrictions risk reducing use more than misuse (facing an unfavorable Misuse-Use Tradeoff), we argue that interventions on capabilities are warranted when other interventions are insufficient, the potential harm from misuse is high, and there are targeted ways to intervene on capabilities. We provide a taxonomy of interventions that can reduce AI misuse, focusing on the specific steps required for a misuse to cause harm (the Misuse Chain), and a framework to determine if an intervention is warranted. We apply this reasoning to three examples: predicting novel toxins, creating harmful images, and automating spear phishing campaigns.


翻译:人工智能(AI)系统在其功能不断增强时将越来越多地被用于造成伤害。实际上,AI系统已经开始被用于自动化欺诈行为、侵犯人权、创建有害的伪造图像和识别危险毒素。为了防止一些AI的滥用,我们认为有针对性地对某些功能进行干预是必要的。这些限制可能包括控制谁可以访问某些类型的AI模型,它们可以用于什么,输出是否经过过滤或可以追溯到其用户,以及开发它们所需要的资源。我们还认为需要对用于造成伤害的某些非AI功能进行一些限制。虽然功能限制的风险是降低使用而不是滥用(面临不利的滥用与使用权衡),但我们认为当其他干预措施不足、滥用可能造成的损害很大且有有针对性的干预手段时,对功能进行干预是必要的。我们提供了一种减少AI滥用的干预措施分类法,重点关注滥用导致损害所需的具体步骤(滥用链),以及确定是否需要干预的框架。我们将这种推理应用于三个示例:预测新型毒素、创建有害的图像和自动化鱼叉式网络钓鱼运动。

0
下载
关闭预览

相关内容

Automator是苹果公司为他们的Mac OS X系统开发的一款软件。 只要通过点击拖拽鼠标等操作就可以将一系列动作组合成一个工作流,从而帮助你自动的(可重复的)完成一些复杂的工作。Automator还能横跨很多不同种类的程序,包括:查找器、Safari网络浏览器、iCal、地址簿或者其他的一些程序。它还能和一些第三方的程序一起工作,如微软的Office、Adobe公司的Photoshop或者Pixelmator等。
为下一个 Log4Shell 漏洞做好准备 | QCon
InfoQ
0+阅读 · 2022年8月5日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
REST 十诫
AI前线
0+阅读 · 2022年5月25日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
R工程化—Rest API 之plumber包
R语言中文社区
11+阅读 · 2018年12月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
14+阅读 · 2017年11月16日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月9日
Arxiv
0+阅读 · 2023年5月8日
Arxiv
3+阅读 · 2023年5月4日
Arxiv
46+阅读 · 2021年10月4日
Arxiv
30+阅读 · 2021年8月18日
VIP会员
相关VIP内容
相关资讯
为下一个 Log4Shell 漏洞做好准备 | QCon
InfoQ
0+阅读 · 2022年8月5日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
REST 十诫
AI前线
0+阅读 · 2022年5月25日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
R工程化—Rest API 之plumber包
R语言中文社区
11+阅读 · 2018年12月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
14+阅读 · 2017年11月16日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员