Frontier AI labs face intense commercial competitive pressure to develop increasingly powerful systems, raising the risk of a race to the bottom on safety. Voluntary coordination among labs - including by way of joint safety testing, information sharing, and resource pooling - could reduce catastrophic and existential risks. But the risk of antitrust scrutiny may deter such collaboration, even when it is demonstrably beneficial. This paper explores how U.S. antitrust policy can evolve to accommodate AI safety cooperation without abandoning core competition principles. After outlining the risks of unconstrained AI development and the benefits of lab-lab coordination, the paper analyses potential antitrust concerns, including output restrictions, market allocation, and information sharing. It then surveys a range of legislative and regulatory reforms that could provide legal clarity and safe harbours that will encourage responsible collaboration.


翻译:前沿人工智能实验室面临激烈的商业竞争压力,需开发日益强大的系统,这加剧了在安全标准上竞相降低的风险。实验室间的自愿协调——包括联合安全测试、信息共享和资源整合——可降低灾难性和存在性风险。然而,反垄断审查的风险可能阻碍此类协作,即使其益处已得到证实。本文探讨了美国反垄断政策如何演进,以在不放弃核心竞争原则的前提下容纳人工智能安全合作。在概述无约束人工智能开发的风险及实验室间协调的益处后,本文分析了潜在的反垄断关切,包括产出限制、市场划分和信息共享。随后,本文考察了一系列立法与监管改革方案,这些方案可提供法律明确性和安全港机制,从而鼓励负责任的协作。

0
下载
关闭预览

相关内容

一种Agent自主性风险评估框架 | 最新文献
专知会员服务
16+阅读 · 10月24日
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员