生成式人工智能(GenAI)指能够生成新内容的AI模型,特指采用机器学习(ML)技术并经过海量数据训练的模型。与之相对,其他AI模型可能以数据分类(如人脸识别图像数据)或决策制定(如自动驾驶车辆)为主要目标。GenAI在接收提示(通常为用户输入文本)后,可生成文本、图像、视频、计算机代码或音乐等多种内容。众多GenAI工具的公开释出与企业竞相开发更强模型的行为,引发对其能力、潜在使用风险及治理监管的广泛讨论。本国会研究服务处(CRS)简报阐述GenAI的发展与应用、使用引发的关切及国会需考量的议题。

技术背景

人工智能(AI)通常指模拟人类智能(如学习、解决问题、在不确定多变条件下达成目标)的计算机化系统,其自主程度各异。AI涵盖自然语言处理、机器人技术、人脸识别等技术领域与方法论。支撑GenAI的AI技术是数十年研究的产物:
循环神经网络(RNN):一种受人类大脑启发的ML模型,专精序列数据模式识别。1980-90年代历经重大改进,虽能生成文本,但存在上下文信息保留能力有限、训练速度慢、算力/数据扩展性不足等缺陷。
Transformer架构:谷歌研究人员2017年提出的创新架构,结合2019年以来生成式预训练Transformer(GPT)模型的改进,推动GenAI性能飞跃。Transformer模型以整句而非逐词处理序列数据,运用"注意力"或"自注意力"数学机制捕捉远程数据元素间的依赖关系,使GPT模型训练更快、上下文理解更高效、扩展性显著提升。

GenAI突破的核心要素

海量数据:训练数据规模直接影响模型性能
大语言模型(LLM):参数量达数百万至数十亿的AI系统(参数指模型中决定输入输出转换关系的数值)。通过数学优化技术、海量数据与算力持续调参可提升模型表现。
涌现能力:开发者未预设但随模型扩展显现的新能力(如文本类GPT模型执行算术与编程任务)。

GenAI特性与影响

GenAI模型致力于复现训练数据的风格与特征,其基础模型(又称通用AI)特性带来双重影响:
优势:集中优化可减少偏见并增强鲁棒性
风险:安全漏洞或不公平性可能传导至下游应用

成式人工智能的能力与进展

近期GenAI模型的参数量跃升至数千亿乃至万亿级别(早期模型仅百万至数十亿参数),显著提升了性能。据《2024年人工智能指数年度报告》指出:"大语言模型(LLM)在传统英语基准测试中已超越人类表现",并强调"快速发展催生了对更全面评估体系的需求"。早期GenAI工具多专注于单一输入输出模式(如聊天机器人的文本对文本、图像生成器的文本对图像),而当前多模态模型能同步处理并整合多种数据类型:例如谷歌Gemini模型支持文本-图像-音频-视频输入并生成文本-图像输出。2024年末起,企业开始推出"推理模型"——采用思维链技术试图"优化思考流程、尝试不同策略并识别错误"(如OpenAI的o1与o3-mini模型、Anthropic的Claude 3.7 Sonnet、深度求索的R1模型),但此类模型仍频现错误。伴随大规模模型发展,模型设计与训练的创新持续提升GenAI工具的速度与能力。

风险与潜在问题

GenAI的误用引发风险管控的广泛讨论:
信息失真风险:模型生成错误或误导性结果(即"虚构"或"幻觉"现象)可能导致虚假信息生成与扩散。例如2024年1月研究发现LLM在法律领域错误"普遍存在";同年12月法官发现GenAI生成伪造信息后驳回专家证词。
数据偏见放大:模型训练依赖网络抓取数据,可能继承并放大数据中的固有偏见。OpenAI指出即使GPT-4等强模型仍"不完全可靠",强调"高风险场景需审慎使用输出"。
安全漏洞:越狱攻击可绕过内置安全规则;提示注入攻击伪装恶意输入操纵系统(如泄露敏感数据);用户数据可能存储于境外服务器(如中国企业深度求索案例)。
就业冲击:GenAI可能替代部分岗位、创造新职业或增强现有岗位技能,其经济生产力影响引发持续关注。相较于传统自动化技术,GenAI的快速渗透加剧劳动力市场担忧。

联邦AI立法与GenAI相关法案

美国国会既往已通过多项AI相关法案:
• 《2020年国家人工智能倡议法案》(公法116-283 E编)确立国家AI倡议及配套联邦机构
• 《生成对抗网络输出识别法案》(公法116-258)推动联邦支持对抗网络研究
近期立法提案聚焦GenAI领域:
• 技术标准制定
• 深度伪造与AI生成语音监管
• GenAI使用透明度与问责机制

国会考量要点

联邦机构与国会持续探索GenAI应用,包括办公任务(内容创作与摘要、演讲稿撰写、法案起草等)。第119届国会已提出多项GenAI相关法案(基于第118届国会多项旨在构建私营领域GenAI技术护栏的提案)。随着GenAI发展与普及,国会或需考量以下问题及潜在行动:

使用偏见与伦理:公私部门或依据联邦AI指南与框架应对GenAI偏见与风险。国会需研判是否需制定行业专项指南,以及高风险场景(如心理治疗、法医画像生成)部署GenAI是否应受限。

测试与透明度:当前主流大模型多为闭源且专有。企业声称开展内部测试并探索外部验证方案。国会可评估行业自我评估的充分性,并考量是否及如何支持/要求独立测试与结果披露。

经济与劳动力影响:学界与业界已启动GenAI对劳动力广泛影响的评估。2024年11月,国家科学院发布《AI与未来工作》更新研究。国会需明确联邦在支持劳动力技能转型(应对GenAI引发的岗位变革)中的角色,并考量是否及如何提升政府AI专业能力(如依据《公法117-167》设立联邦AI服务奖学金计划)。

研究与竞争:大模型训练成本预估达数百万至数千万美元。分析人士指出,成本、专有数据与算力获取将加剧尖端LLM训练者(大型科技企业)与非训练者(非营利机构、初创企业、高校)间的鸿沟。国会需考量是否支持数据/训练/算力资源开放(如立法推进国家AI研究资源计划)。此外,深度求索R1等先进开源模型释出引发国家安全与国际竞争担忧,国会或需研判是否通过技术标准制定与盟国协作强化美国AI领导地位。

监管与监督:国会制定GenAI监管政策时需权衡对创新与国际竞争力的影响。现有联邦监管机构是否具备权限与资源有效监督GenAI工具(风险最小化与效益最大化)?若否,需补充哪些权限?GenAI联邦监管与广义AI监管应如何差异化?

成为VIP会员查看完整内容
5

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《提高决策支持系统透明度的可解释人工智能》最新100页
专知会员服务
48+阅读 · 2024年11月28日
《语音大语言模型》最新进展综述
专知会员服务
50+阅读 · 2024年10月8日
边缘人工智能:分类法、系统综述及未来方向
专知会员服务
59+阅读 · 2024年7月8日
《网络战仿真中的多智能体强化学习》最新42页报告
专知会员服务
46+阅读 · 2023年7月11日
【干货书】机器学习—工程师和科学家的第一课,348页pdf
专知会员服务
84+阅读 · 2021年6月20日
最新人机对话系统简略综述
专知
26+阅读 · 2018年3月10日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
452+阅读 · 2023年3月31日
Arxiv
24+阅读 · 2023年3月17日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关VIP内容
《提高决策支持系统透明度的可解释人工智能》最新100页
专知会员服务
48+阅读 · 2024年11月28日
《语音大语言模型》最新进展综述
专知会员服务
50+阅读 · 2024年10月8日
边缘人工智能:分类法、系统综述及未来方向
专知会员服务
59+阅读 · 2024年7月8日
《网络战仿真中的多智能体强化学习》最新42页报告
专知会员服务
46+阅读 · 2023年7月11日
【干货书】机器学习—工程师和科学家的第一课,348页pdf
专知会员服务
84+阅读 · 2021年6月20日
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员