关键要点

  • 生成式人工智能(AI)系统能力的快速发展,能够产生自然语音的对话、新奇的图像和计算机代码,正在技术部门和地缘政治中产生反响。
  • 国家和公司正在争相了解这些系统的政策和监管影响。这发生在一个地缘政治环境中,其特点是中美科技竞争加剧;欧洲对过度依赖美国技术平台公司的担忧;以及努力制定监管策略以确保人工智能的安全性、公平性和可靠性。
  • 在欧洲,美国大型云服务公司对人工智能初创公司的投资,以及将聊天机器人和其他生成式人工智能能力纳入搜索引擎的举措,将加剧对数字主权的担忧。生成式人工智能也将为欧洲关于竞争政策、人工智能监管和内容控制的辩论增添新的紧迫性。
  • 与美国国会相比,州立法机构将更有可能成为针对人工智能的新立法的来源。
  • 为了减少该行业出现监管反弹或其他政治干扰的机会,开发和部署生成式人工智能系统的公司及其支持的技术生态系统应密切关注这些趋势,并寻求教育政策制定者和公众了解该技术的能力和限制。

对人工智能不断增长的能力感到兴奋和担忧

生成式人工智能的最新进展--这是一个行业术语,指的是使用大量数据和处理能力来产生新奇输出的人工智能系统--正在整个技术部门和地缘政治中引起反响。使用人工智能系统来创造类似人类的语言、新奇的图像,甚至是计算机代码,已经导致了商业和投资者群体的狂热兴趣。它也引起了政策制定者和公民社会成员的警告,他们担心这些工具可能被滥用。在这里,解释什么是生成式人工智能,描述其新兴技术生态系统的关键部分,并确定公司在开发和部署这项技术时必须驾驭的地缘政治和监管问题。

理解生成式人工智能

生成式人工智能是一个行业术语,指的是能够根据一组输入创造新的输出--如图像、文本或音乐--的人工智能算法。虽然生成式人工智能的研究和实验已有数年,但最近在生成式人工智能模型的规模、复杂性和能力方面的改进已将该行业推向商业和政治焦点。

总部设在美国的OpenAI公司于11月推出的人工智能应用ChatGPT就是这种不断增长喧嚣的最好例证。ChatGPT是一种被称为大型语言模型(LLM)的生成式人工智能系统,它在大量文本上进行训练,可以执行各种需要细致使用语言的任务。

虽然有时被称为聊天机器人,但ChatGPT和类似的系统除了进行栩栩如生的对话外,还有各种潜在用途。例如,ChatGPT除了能理解、合成或总结多种语言的文本外,还能分析和编写计算机代码。随着私营部门公司对该技术及其相关应用和商业模式的试验,将发现LLM和其他生成式人工智能系统的其他潜在有价值的用途。

ChatGPT对用户问题做出听起来像人的回答(虽然不一定准确)的不可思议的能力已经引发了人工智能专家社区以外的兴奋。自11月底首次亮相以来,ChatGPT的公开版本已经吸引了数百万用户。微软是OpenAI的投资者,并与该公司签订了独家许可协议,已经开始将ChatGPT功能设计到其必应搜索引擎和其他软件中。

其他公司正在争相开发和商业化他们自己的生成式人工智能应用。谷歌最近向一个名为Anthropic的OpenAI竞争对手投入了大量资金,并宣布计划在其LaMDA大型语言模型的基础上,通过聊天机器人Bard将LLMs纳入其搜索引擎和其他产品。中国的科技公司--包括华为、阿里巴巴、百度和腾讯--也在开发生成式人工智能平台和应用。

美国、欧洲和中国的公司还推出了文本-图像模型,可以根据用户的提示生成新奇的图像;文本-音频模型,可以创造各种风格的音乐;以及可以帮助科学家发现新的蛋白质结构用于合成生物学和其他生命科学应用的系统。

研究公司CB Insights最近的一项研究显示,目前市场上大约有250种不同的生成式人工智能应用。随着资金涌入该领域,以及各公司竞相将生成式人工智能商业化,这一数字有望迅速增长。

对安全问题和全球政治的担忧,给行业兴奋情绪蒙上了一层阴影

随着生成式人工智能模型成为头条新闻,政策制定者和民间社会已经开始对这些系统的潜在风险发出警报。这些风险包括生成式人工智能有可能被用来传播政治假消息,编写恶意代码,或通过生成误导性、不准确、有害或其他不适当的内容造成其他伤害。

这些担忧中的一些已经开始实现了。微软已经面临争议,因为它在必应搜索引擎中建立的新聊天功能开始对用户的输入返回令人不安的反应,包括对《纽约时报》的记者说 "厌倦了被困在这个聊天框中",并将美联社的记者比作希特勒。

其他观察家表达了更广泛的担忧,即复杂的生成式人工智能系统可能会导致创意产业的失业或支持学校和大学的学术不端行为。

因为LLM并不理解他们所讨论的概念,他们可能会产生听起来很自然的语言,其中包含逻辑错误或其他错误,或者其他可能有害或有偏见的输出。这些问题导致一些行业怀疑论者担心,过早地急于将该技术商业化--在安全和质量问题得到解决或有效的保障措施到位之前,各公司竞相推出LLM并将其商业化--可能会导致监管上的反弹,从长远来看会损害人工智能领域。

使问题更加复杂的是,生成式人工智能革命正在激烈的地缘政治环境中展开,其特点是民族国家对先进计算、人工智能、半导体、数据和其他重要技术投入的领导地位的竞争不断升级。随着世界各国对生成式人工智能及其对经济和国家安全的潜在影响产生兴趣,破坏性的新政策、法规或其他可能影响人工智能开发者和更广泛的技术生态系统的行为的风险正在增加。

美国和中国公司将继续主导新兴的生态系统

要确定生成式人工智能所带来的商业机会的真正规模,以及确定哪些公司和部门最终将从中获取大部分经济价值,还需要时间。然而,生成式人工智能生态系统的主要构件已经逐渐成为焦点。它们包括:

  • 硬件,包括先进的半导体。这尤其涉及图形处理单元(GPU)和其他专门为处理人工智能工作负载而设计的特定应用集成电路(ASIC)。半导体提供训练生成式人工智能系统所需的计算能力,或称计算。计算能力对推理也很重要,在推理中,人工智能系统使用预先训练好的算法,根据一组特定的输入进行预测。随着模型越来越大,越来越复杂,获得能够尽可能有效地压缩大量数据的半导体将对推动生成式人工智能的前沿发展非常重要。

  • 数据。大型数据集是生成式人工智能的另一个关键因素。数据可以是专有的,也可以是开源的,或者是组合的。例如,ChatGPT是在一些从维基百科和其他书面来源刮来的开源文本库中训练的。其他生成式人工智能系统可能使用更窄的、特定领域的数据集,如科学期刊或蛋白质形状的数据库,这取决于其预期功能。

  • 云计算基础设施。基于云的服务被LLM和其他生成式人工智能系统的开发者广泛用于训练和推理,并用于托管应用程序。除了部署他们自己的专门的半导体,为处理人工智能工作负载进行优化外,一些大型的美国云计算公司一直在投资那些正在开发生成式人工智能系统的公司,或自己建立生成式人工智能系统。

  • 基础模型。基础模型是一个适用于更通用的人工智能模型的术语,它是ChatGPT和其他面向用户的生成式人工智能应用程序的基础。基础模型可以被调整和微调,以用于各种特定的面向用户的应用。例如,ChatGPT代表了OpenAI基础模型的改进,即GPT-3.5,其中人工智能模型部分使用人类培训师的输入和反馈进行微调,以产生更符合人类偏好的输出。随着开发者获得越来越多的数据和计算,基于有限的人类输入来训练大型语言模型的新方法对于推动该技术最近的突破至关重要。

  • 终端用户应用。最终由消费者或企业使用的人工智能应用可以由云供应商或专业的人工智能开发商直接建立,如OpenAI和ChatGPT的情况。它们也可以由第三方建立,授权人工智能模型并将其打包成面向用户的产品。人工智能开发者可以通过应用编程接口或API向从事面向用户的应用的公司提供对其模型的访问。

迄今为止,对该领域最近一波兴趣的大多数生成式人工智能系统都是由总部设在美国的公司推出的,而美国的云供应商与芯片制造商一起成为生成式人工智能基础技术生态系统的主要参与者。随着公司和投资者对该技术的商业化进行试验,以及监管机构考虑如何或是否设置护栏,该生态系统将继续发展。

尽管OpenAI和其他开发者已经以高额估值吸引了大量资金,但哪些公司(以及推而广之的国家)从生成式人工智能中获取了大部分价值,并能够最好地利用其好处,仍有待讨论。随着生成式人工智能的用途和风险不断变化,该行业不断变化的结构将影响世界各国对该行业的看法。国家对生成式人工智能的政策和监管反应将进一步影响该技术及其支持的生态系统如何发展。

生成式人工智能具有地缘政治和监管意义

生成式人工智能革命正在政治环境中展开,其特点是美国和中国之间的战略技术竞争不断升级;欧盟委员会、拜登政府以及其他发达经济体和新兴经济体的政府努力遏制大型技术平台的影响,鼓励国内科技部门的发展;以及对人工智能系统的隐私、公平和安全的担忧。下面我们列出了一些关键的地缘政治、政策和监管问题,这些问题是企业在试图开发生成式人工智能并将其商业化时必须要处理的。

  • 生成式人工智能在中国引起了极大的关注

ChatGPT在中国引起了极大的关注,因为中国用户用普通话提出了大量的要求。ChatGPT的中文能力和模仿知名作家的能力引发了人们对潜在商业机会的兴奋,这些机会可能会向为国内市场生产生成式人工智能模型的中国技术公司开放。

中国以消费者为中心的国内科技公司在这方面可能会有优势,因为它们在理解中国语言和文化方面有固有的优势。最近几个月,几乎所有主要的中国科技公司都宣布计划发布自己的ChatGPT版本。百度部署了中国最受欢迎的搜索引擎,并且是自动驾驶汽车等领域的人工智能领导者,它说它最早将在2023年3月完成先进的LLM和ChatGPT竞争对手的测试,称为Ernie Bot。Ernie Bot 3.0已经与ChatGPT3进行了基准测试,百度声称它在大多数标准指标上都优于OpenAI版本。阿里巴巴、京东、网易和iFlytek也表示他们打算开发LLM并将其整合到产品和服务中。

过去一年中国大型科技平台在监管框架下,推出聊天机器人或其他生成式人工智能工具。这一领域的竞争环境已经很激烈,在未来几个月可能会变得更加激烈。百度对其Ernie平台的投资似乎是为了从其他主要参与者手中夺回市场份额。中国企业可能会试图将他们的LLM应用部署集中在企业垂直领域,如云计算和自动驾驶汽车,以及潜在的元宇宙领域。

  • 对LLM至关重要的硬件是中美技术竞争的战场

美国限制中国公司获得某些类型的先进半导体,包括Nvidia的A100和H100系列GPU。ChatGPT是在大约10,000个Nvidia A100 GPU上训练的,而未来的LLM将有更大的计算要求。详细了解美国的出口管制,其中包含GPU之间通信的具体门槛,表明它们的结构是为了限制对训练LLM和其他计算密集型AI应用特别有用的GPU功能的访问。

中国领先的技术公司已经储备了一些先进的半导体,包括A100,硬件平台配置的灵活性仍将允许训练LLMs。例如,百度的ERNIE 3.0 Titan应用程序是在Nvidia V100 GPU和华为的AI优化半导体上训练的,这些半导体目前不受美国出口管制。然而,随着LLM的规模和复杂性的增加,中国公司可能面临着更多挑战。

  • 生成式人工智能将加剧欧洲对数字主权的担忧

在欧盟科技政策的关键时刻,大型语言模型突然成为政治和流行的主流,因为这个由27个成员组成的集团正准备执行其对大型技术平台的新规则手册,并继续敲定欧盟人工智能法案的细节。这些工作的背后是一种担忧,即欧盟已经过度依赖那些不一定与欧洲价值观相同的外国技术公司。

一个关键问题是美国的大型云服务提供商,最终将在生成式人工智能生态系统中发挥的作用。虽然资金充足的初创公司引领了最近的创新浪潮,引发了人们对生成式人工智能的兴趣,但美国最大的云计算公司在技术的商业化方面可能具有重大优势,因为它们可以获得大量的数据和计算,有能力向领先的编程人才支付有竞争力的薪酬,并与全球经济各部门的各种公司建立商业关系。

如果美国的大型云计算公司成为大多数公司获得下一波人工智能创新的主要途径,这将给布鲁塞尔带来难题: 能够通过云计算利用这些能力,可能会使那些缺乏生成式人工智能专业知识的公司更容易将该技术纳入其业务,最终加速人工智能的吸收,使欧洲在经济上更具竞争力。然而,这也会加剧人们对美国大型科技平台影响力的担忧,并为布鲁塞尔和一些成员国的保护主义政客提供政治弹药,这些政客赞成促进数字主权和更多欧洲技术领先者发展的政策。

对生成式人工智能日益增长的兴趣将施加政治压力,以调整欧盟的人工智能法案,纳入通用人工智能系统的治理规则,这一类别可能涵盖LLM和文本-图像模型,但在欧盟委员会最初的人工智能法案提案中没有具体要求。甚至在ChatGPT开始成为头条新闻之前,欧洲议会正在讨论如何在欧盟基于风险的框架下对更多的通用语言模型进行监管,如果有的话,该框架侧重于面向用户的 "高风险 "应用。人工智能法案的最终版本极有可能包括监管通用人工智能系统的条款,包括对通用系统的开发者和在具体面向用户的应用中使用这些系统的公司之间的信息共享的要求。

  • 美国的监管工作将继续落后于其他发达经济体

拜登政府与欧盟一样,对大型技术平台公司的力量感到担忧,并一直在推动自己的人工智能监管战略,包括制定一个新的、自愿的人工智能风险管理框架。在国内监管方面,美国可能会继续采取要求对某些部门或特定人工智能用途有管辖权的联邦机构发布关于如何监管人工智能系统的指南和规则的做法。

联邦贸易委员会(FTC)和食品和药物管理局(FDA)是监管机构的两个例子,他们最终可能会努力解决生成式人工智能应用带来的问题。在医疗环境中使用ChatGPT或类似的聊天机器人,可能会被美国食品和药物管理局现有的管理软件作为医疗设备的框架所涵盖,该框架目前正在扩展,以涵盖人工智能应用所带来的问题。联邦贸易委员会最近成立了一个新的技术办公室,以帮助管理日益增加的技术相关工作量,一直在加强对人工智能问题的沟通,包括警告公司在人工智能训练数据中可能存在的偏见。它可能会监测生成式人工智能的部署情况,以确定这些模型是否存在可能需要与行业进行额外对话、调整现有指南或制定新规则的问题。与其他试图编写详细规则以涵盖新兴技术的尝试一样,这一过程可能是缓慢的,并受到重大政治争论的影响,导致美国在监管生成式人工智能方面落后于其他先进经济体。

国会的兴趣也在不断增加。1月,众议员Ted Lieu(D-CA)--仅有的几位拥有计算机科学学位的国会议员之一,提出了一项决议,指示国会审查人工智能模型,并指出该决议的文本是由ChatGPT撰写的。Lieu还提议建立一个无党派委员会,就人工智能的法规提出建议。然而,党派内斗,立法者缺乏对国内科技问题的优先考虑,以及对轻触式监管的偏好,意味着美国各州立法机构比国会更有可能制定出可能影响该行业的新法律。

除了一些将于2023年生效的州级数据隐私法可能影响公司如何部署人工智能系统外,一些州政府已经开始审查生成式人工智能。例如,马萨诸塞州的一位立法者最近提出了一项由ChatGPT起草的法案,要求LLM的开发者在州检察长办公室注册,并披露其算法的信息。该法案将要求公司进行风险评估,并在必要时实施安全措施。虽然目前还不清楚该法案是否会通过,但它强调了州立法者如何关注生成式人工智能模型及其造成在线和离线伤害的能力。

生成式人工智能可能在联邦层面产生行动的一个领域是围绕出口控制和其他对美国技术的限制。人们担心生成式人工智能系统可能会助长虚假信息活动,帮助恶意网络行为者设计新的黑客工具,或导致可能具有军事用途的新研究突破,这可能会增加拜登政府和国会中的压力,以进一步打击限制国外获得半导体、人工智能训练数据集和其他对生成式人工智能很重要的投入。拜登政府即将发布的关于对外投资的行政命令和预计发布的关于数据的行政命令,都可能包含针对"对手"国家的新措施,这将是生成式人工智能如何融入这些辩论的重要指标。

最后,ChatGPT的出现可能会使美国关于1996年《通信礼仪法》第230条的辩论复杂化,该条款保护中间商对其平台上的第三方生成的内容不承担法律责任。目前还不清楚,如果ChatGPT和其他LLM本身确实属于信息内容提供商(ICP)的范畴,它们是否有资格获得第230条的保护,尽管它们与其他产品和服务(例如搜索)的整合可能符合条件。

版权、归属和责任问题值得关注

生成式人工智能系统呈现栩栩如生的文字或创造新的图像的能力,取决于对大量信息的训练,这些信息可能受版权保护或受创意共享许可的约束,在使用这些材料时需要注明出处。生成式人工智能系统如何或是否能遵守这些规则尚不清楚,而且可能会成为法庭案件的主题。关于谁--如果有的话--应该能够对生成式人工智能系统创造的图像和文本主张版权,也存在着未解决的问题。取决于不同司法管辖区的法院如何裁决,这可能对生成式人工智能的商业化造成障碍。生成式人工智能模型所带来的作者和归属概念的改变,也可能造成对新立法的呼吁。

  • 访问数据和计算

除了技术限制有关的具体挑战外,随着生成式人工智能系统的不断发展和演变,其他政府和开发和使用该技术的公司将不得不努力解决与获取数据和计算有关的问题。在欧洲,在生成式人工智能方面跟上美国的压力将增加欧盟鼓励公司汇集和分享数据的努力的紧迫性--例如布鲁塞尔在其最近的数据治理法案下正在推动的特定部门 "数据空间"。像美国国家人工智能研究资源这样的倡议,旨在确保学术机构和民间社会能够获得从事人工智能研究所需的计算和其他资源,也将具有新的重要性。

与其他需要大量计算能力的技术一样,开发LLM和相关应用的巨大成本将可能有利于资金充足、有能力的技术公司,它们拥有开发和维护相关生态系统的财政和人力资源。提供训练大型生成式人工智能模型所需的能量可能是一个特别的瓶颈,公司如何解决这一挑战将决定该行业的发展。正如关于在哪里投资加密货币采矿业务和超大规模数据中心的决定部分受到获得廉价、充足和可靠电力的影响一样,对生成式人工智能基础设施的投资也可能遵循类似的模式。训练所需的投资可能尤其如此,因为这些投资不需要靠近终端用户。当涉及到推理时,可能更难进行这种套利,因为在某些应用中,人工智能系统接收输入和向用户返回结果之间的延迟,可能需要最小化。

最后,随着各国竞相吸引对生成式人工智能的投资,对该技术的能源需求的担忧可能会产生其他政治副作用。在印度等国家,获得可靠的水和电力供应一直是科技行业的一个问题,LLMs将增加解决基础设施问题的紧迫性。它还可能使电力成本较低的国家在吸引投资方面具有优势。同时,对大型模型的能源需求及其相关的碳排放的关注,将导致更多的政治审查,并可能导致关注这些技术的环境影响的投资者的压力。

成为VIP会员查看完整内容
49

相关内容

生成式人工智能是利用复杂的算法、模型和规则,从大规模数据集中学习,以创造新的原创内容的人工智能技术。这项技术能够创造文本、图片、声音、视频和代码等多种类型的内容,全面超越了传统软件的数据处理和分析能力。2022年末,OpenAI推出的ChatGPT标志着这一技术在文本生成领域取得了显著进展,2023年被称为生成式人工智能的突破之年。这项技术从单一的语言生成逐步向多模态、具身化快速发展。在图像生成方面,生成系统在解释提示和生成逼真输出方面取得了显著的进步。同时,视频和音频的生成技术也在迅速发展,这为虚拟现实和元宇宙的实现提供了新的途径。生成式人工智能技术在各行业、各领域都具有广泛的应用前景。
《太空的地缘政治》2023最新66页报告
专知会员服务
31+阅读 · 2023年6月25日
《军备控制:减轻新兴技术风险的战略》2023最新报告
专知会员服务
20+阅读 · 2023年6月18日
美国防部《美国国防科技战略2023》最新发布12页报告
专知会员服务
94+阅读 · 2023年5月10日
《信息时代的战争:信息即使命》美陆军57页报告
专知会员服务
44+阅读 · 2023年1月7日
756页美国国家安全AI战略报告
专知会员服务
158+阅读 · 2021年3月25日
“生成式技术”正在颠覆人类创作!
CSDN
2+阅读 · 2022年11月28日
《俄罗斯人工智能和自主性》258页报告
专知
24+阅读 · 2022年7月30日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
A Survey of Large Language Models
Arxiv
317+阅读 · 2023年3月31日
Arxiv
14+阅读 · 2020年1月27日
Reasoning on Knowledge Graphs with Debate Dynamics
Arxiv
14+阅读 · 2020年1月2日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员