世界正面临人工智能的拐点。大型语言模型(LLM)将带来划时代的变革,堪比互联网的发明。一场价值数十亿英镑的市场竞争正在进行。获胜者将拥有前所未有的力量,影响全球的商业行为和信息获取。我们的调查研究了未来三年的趋势,并确定了优先行动,以确保这一新技术造福于人类、经济和社会。
我们对这项新技术持乐观态度,因为它可以带来巨大的经济回报,推动突破性的科学进步。
要想获得收益,就必须应对风险。许多风险是巨大的,包括对公共安全、社会价值、开放市场竞争和英国经济竞争力的威胁。
因此,需要采取高瞻远瞩、细致入微的快速行动,以负责任的态度促进创新,并适度降低风险。我们发现,政府在优先事项、政策连贯性和实施速度方面还有改进的余地。
我们支持政府的总体方针,并欢迎其在将英国定位为世界人工智能领导者方面所取得的成功。这种广泛的努力值得祝贺。但政府最近过于偏向于狭隘地关注高风险的人工智能安全问题。单凭这一点,并不能提供塑造国际规范所需的更广泛的能力和商业影响力。如果不更加重视支持商业机会和卓越的学术成就,英国就不可能跟上国际竞争对手的步伐。因此,需要重新进行平衡,既要更积极地把握机遇,又要更审慎地关注近期风险。
市场力量的集中和既得利益者对监管的攫取也亟需关注。这种风险是真实存在的,而且还在不断增加。政府和监管机构必须将公开竞争和透明度放在首位,以防范这些结果的发生。
引导英国取得积极成果的窗口期很短。建议如下:
迅速做好准备: 英国必须为长期的国际竞争和技术动荡做好准备,因为英国正努力利用LLM提供的机会。
防范监管俘获: 开放模式和封闭模式的开发者之间正在展开一场激烈的竞争。双方都在寻求有利的监管框架。政府必须将市场竞争作为明确的人工智能政策目标。政府还必须在科学、创新与技术部(DSIT)和人工智能安全研究所(AI Safety Institute)中引入强化治理和透明度的措施,以防止监管俘获。
谨慎对待开放式和封闭式论证: 开放模式提供了更多的机会和竞争,但也引发了对危险能力不受控制扩散的担忧。封闭模式提供了更多控制,但也带来了更多权力集中的风险。需要采取细致入微的方法。政府必须按部就班地审查安全影响,同时确保任何新规则都能支持而不是扼杀市场竞争。
重新平衡战略,抓住机遇: 政府的重点过于偏向狭隘的人工智能安全观。政府必须重新平衡,否则将无法利用LLM带来的机遇,落后于国际竞争对手,并在关键技术上对海外科技公司产生战略依赖。
增加机会: 我们呼吁采取一系列措施,提高计算能力和基础设施、技能,并为学术衍生公司提供支持。政府还应探索发展主权 LLM 能力的方案和可行性,这种能力应建立在最高的安全和道德标准之上。- 支持版权: 政府应优先考虑公平和负责任的创新。它必须明确解决争议(包括在必要时通过更新立法);授权权利人检查其数据是否未经许可而被使用;投资于大型、高质量的培训数据集,以鼓励科技公司使用获得许可的材料。
应对直接风险: LLM 最直接的安全风险来自于使现有的恶意活动变得更容易和更便宜。这对公共安全和金融安全构成了可信的威胁。在网络安全、反恐、儿童性虐待材料和虚假信息方面需要更快的缓解措施。还需要更好的评估和防护措施,以应对歧视、偏见和数据保护方面的社会危害。
审查灾难性风险: 灾难性风险(超过 1000 名英国人死亡和数百亿美元的经济损失)在三年内不太可能发生,但也不能排除,特别是随着下一代能力的上线。然而,对于灾难性风险,目前还没有商定的预警指标。我们没有理由恐慌,但这一情报盲点需要立即引起重视。此外,还需要对高风险、高影响的模型进行强制性安全测试:依靠少数公司的自愿承诺是幼稚的,会使政府无法应对危险能力的突然出现。对生存风险(对人类生命构成全球性威胁)的广泛担忧被夸大了,决策者不能因此而偏离更紧迫的优先事项。
赋予监管机构权力: 政府依靠部门监管机构来实现白皮书的目标,但在为他们提供工具方面却进展缓慢。需要加快为政府领导的中央支持团队提供资源,同时赋予某些监管机构调查和制裁权力,制定跨部门准则,并对责任进行法律审查。
适度监管: 英国应在人工智能监管方面开辟自己的道路,学习但不照搬美国、欧盟和中国的做法。这样,英国就能保持战略灵活性,并为世界树立榜样--尽管它需要先做好基础工作。当务之急是按部就班地制定认可标准和通用审核方法,以确保负责任的创新、支持企业采用并实现有意义的监管监督。