COVID-19 让世界看到了生物事件可能带来的灾难,不久之后,专家们开始警告说,人工智能(AI)的快速发展可能预示着一个充满生物恐怖主义、前所未有的超级病毒和新型定向生物武器的世界。这些可怕的警告已经上升到行业和政府的最高层,从世界领先的人工智能实验室的首席执行官对潜在生物恐怖分子的新技术能力发出警报,到副总统卡马拉-哈里斯担心人工智能驱动的生物武器 “可能危及人类的生存”。如果情况属实,这种发展将使美国面临前所未有的灾难性威胁,远远超出 COVID-19 的破坏范围。但是,要评估这些担忧在多大程度上是合理的--以及该如何应对--需要权衡一系列复杂的因素,其中包括:

  • 美国生物安全的历史和现状
  • 人工智能改变现有生物安全风险的各种方式
  • 哪些新兴的人工智能技术能力会对这些风险产生影响
  • 当前需要在哪些方面采取干预措施

本报告考虑了这些因素,让政策制定者广泛了解人工智能与生物技术不断发展的交集,并提出可行的建议,以遏制生物威胁对国家安全造成的最严重风险。

灾难性生物风险的来源多种多样。从历史上看,政策制定者一直低估了善意科学家的日常活动所带来的风险,即使高风险生物安全实验室的数量和危险事件的发生频率仍在持续增长。国家行为者历来是生物安全风险的重要来源。但由于生物武器的不稳定性和不精确性,尽管对潜在生物武器能力表示担忧,但国家仍不太可能在短期内发动大规模生物袭击。另一方面,非国家行为者--包括独狼、恐怖分子和世界末日组织--在试图发动生物袭击方面有着令人不安的记录,但由于制造和使用这种微妙能力的内在复杂性,其成功率有限。

如今,生物技术的快速发展--与人工智能的发展无关--正在改变许多风险。新的基因编辑技术、基因测序方法和 DNA 合成工具的结合,为合成生物学开辟了一个新的可能性世界,使基因操作更加精确,同时也带来了一个新的风险世界,既有开发威力强大的生物武器的风险,也有发生生物事故的风险。云实验室代表他人进行实验,可以让非国家行为者外包一些实验专业知识,从而使他们能够进行危险用途。虽然大多数云实验室都会对恶意活动的订单进行筛查,但并非所有云实验室都会这样做,而且现有的生物武器规范、公约和保障措施的组合为不良行为者在获取可行的生物武器方面取得重大进展提供了一系列途径。

但是,专家们对美国生物安全总体状况的看法却大相径庭,尤其是对非国家行为者研制生物武器的担忧。那些不太担心的人认为,即使存在制造生物武器的可行途径,但制造、储存和传播生物武器的实际操作远比大多数人认识到的要复杂得多,有许多潜在的失误点,而有关方面要么没有认识到,要么没有充分重视。他们还指出,尽管长期发出警告,但近几十年来并没有发生过重大生物袭击事件。更悲观的阵营则指出,有实验表明,利用市场上可买到的原料,似乎很容易就能成功制造出威力强大的病毒,而且制造生物武器所需的知识和技术能力方面的障碍似乎也在不断减少。争议较少的是,美国的生物防御系统不足以充分应对大规模的生物威胁,无论是自然发生的、意外的还是蓄意的。尽管 COVID-19 表明美国政府无力遏制大规模疫情的影响,但美国在减轻另一场更危险的生物灾难的可能性和潜在危害方面进展有限。

新的人工智能能力可能会以多种方式重塑生物威胁的风险格局。人工智能带来了新的能力,从理论上讲,先进的行为者可以优化生物武器,以达到更精确的效果,例如针对特定的基因群体或地域。虽然这种能力仍是推测,但如果实现,将极大地改变国家为战略目的使用生物武器的动机。国家可以破坏其他国家的粮食安全,或通过公共卫生危机使敌人丧失能力,而不需要用这些笨重的武器来威胁本国军队或人民的健康。与此相关的是,同样的技术可以制造出具有最佳传播性和致命性的超级病毒,这可能会大大增加生物武器的破坏潜力。然而,科学家们需要克服的几个技术挑战--如果这些挑战能够得到解决的话--将削弱这些担忧。

与人工智能相关的生物风险最迫切的担忧来自于可能很快就能加速非国家行为者采购生物制剂的工具。最近的研究表明,基础模型可能很快就能帮助坏人加快获取可用于武器的生物制剂的能力,即使这些人工智能工具目前能帮助他们的程度仍然微乎其微。如果新兴的人工智能工具能够更加有效,就能为生物武器的潜在制造者带来福音,因为它们可以更加动态地提供生产和使用生物武器所需的一些知识,尽管这些制造者在开发生物武器时仍将面临其他重大障碍,而这些障碍往往未得到足够重视。

人工智能还可能以其他方式影响生物风险。人工智能工具中的技术缺陷可能无法限制基础模型向潜在的不良行为者传递危险的生物信息,或者无意中鼓励研究人员追求具有意想不到的负面影响的有前途的药物体。利用人工智能创建更先进的自动化实验室,可能会使这些实验室面临许多自动化风险,而这些风险历来困扰着其他复杂的自动化系统,并使非专业人员更容易调制生物制剂(取决于自动化实验室所建立的安全机制)。最后,对寻求利用人工智能在生物技术领域的潜力的公司和国家进行大量投资,可能会造成速度优先于安全的竞争态势。

鉴于生物技术和人工智能这两个学科的科学进步存在固有的不确定性,试图准确预测未来几年生物技术和人工智能交叉领域的灾难性风险将如何发展以及何时发展,无异于天方夜谭。相反,本报告指出了专家和政策制定者需要监控的四个能力领域,它们将对与人工智能相关的灾难性风险产生最大影响:

  • 基础模型为先进生物应用提供有效实验指导的能力
  • 云实验室和实验室自动化在减少生物技术实验专业知识需求方面取得的进展
  • 宿主基因对传染病易感性研究的双重用途进展
  • 病毒病原体精密工程的双重用途进展

对这些能力的密切关注将有助于专家和决策者在未来数年内领先于不断演变的风险。

目前,应采取以下措施遏制人工智能与生物安全交叉领域的新风险:

  • 进一步加强对云实验室和其他基因合成提供商的筛选机制
  • 针对整个生物武器生命周期,定期对基础模型的生物能力进行严格评估
  • 投资于可遏制基础模型威胁的技术安全机制,特别是加强对基于云的人工智能工具访问、“不学习 ”能力和模型培训中 “信息危害 ”新方法的防护措施
  • 更新政府投资,进一步优先考虑生物防御系统的敏捷性和灵活性
  • 从长远来看,如果具有潜在灾难性能力的生物设计工具开始实现,应考虑为这类工具建立许可制度
成为VIP会员查看完整内容
2

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《人工智能与未来战争》25页报告
专知会员服务
41+阅读 · 8月27日
《21世纪的认知战与颠覆治理》2023最新报告
专知会员服务
50+阅读 · 2023年10月9日
《人工智能网络攻击带来的安全威胁》30页报告
专知会员服务
68+阅读 · 2023年5月4日
《降低人工智能对军事决策优势的风险》2023最新39页报告
专知会员服务
105+阅读 · 2023年4月20日
Gartner 报告:人工智能的现状与未来
InfoQ
14+阅读 · 2019年11月29日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
150+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
389+阅读 · 2023年3月31日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员