Large generative AI models (LGAIMs), such as ChatGPT or Stable Diffusion, are rapidly transforming the way we communicate, illustrate, and create. However, AI regulation, in the EU and beyond, has primarily focused on conventional AI models, not LGAIMs. This paper will situate these new generative models in the current debate on trustworthy AI regulation, and ask how the law can be tailored to their capabilities. After laying technical foundations, the legal part of the paper proceeds in four steps, covering (1) direct regulation, (2) data protection, (3) content moderation, and (4) policy proposals. It suggests a novel terminology to capture the AI value chain in LGAIM settings by differentiating between LGAIM developers, deployers, professional and non-professional users, as well as recipients of LGAIM output. We tailor regulatory duties to these different actors along the value chain and suggest four strategies to ensure that LGAIMs are trustworthy and deployed for the benefit of society at large. Rules in the AI Act and other direct regulation must match the specificities of pre-trained models. In particular, regulation should focus on concrete high-risk applications, and not the pre-trained model itself, and should include (i) obligations regarding transparency and (ii) risk management. Non-discrimination provisions (iii) may, however, apply to LGAIM developers. Lastly, (iv) the core of the DSA content moderation rules should be expanded to cover LGAIMs. This includes notice and action mechanisms, and trusted flaggers. In all areas, regulators and lawmakers need to act fast to keep track with the dynamics of ChatGPT et al.


翻译:大规模生成式 AI 模型 (LGAIM),如 ChatGPT 或 Stable Diffusion,正在快速改变我们的交流、插图和创造方式。然而,欧盟及其他地方的 AI 监管主要关注传统的 AI 模型,而非 LGAIM。本文将把这些新的生成式模型置于当前的可信 AI 监管争议中,并询问法律如何适应它们的能力。在先介绍技术基础之后,本文的法律部分分为四步,涵盖 (1) 直接监管、(2) 数据保护、(3) 内容管理和 (4) 政策建议。本文建议一种新颖的术语来捕捉 LGAIM 环境中的 AI 价值链,通过区分 LGAIM 开发者、部署者、专业用户、非专业用户以及 LGAIM 输出的接收者来不同地考虑监管职责。我们针对这些不同角色的价值链量身定制监管职责,并提出了四种策略,以确保 LGAIM 可信并为整个社会造福。AI 证规和其他直接监管的规则必须匹配预训练模型的特定性。特别是,监管应专注于具体的高风险应用,而不是预训练模型本身,同时应包括 (i) 透明度和 (ii) 风险管理的义务。然而,(iii) 非歧视条款可能适用于 LGAIM 开发者。最后,DSA 内容管理规则的核心应扩展到涵盖 LGAIM。这包括通知和行动机制以及可信举报人。在所有领域,监管机构和立法者需要快速行动,以跟上 ChatGPT 等模型的动态。

0
下载
关闭预览

相关内容

医学人工智能AIM(Artificial Intelligence in Medicine)杂志发表了多学科领域的原创文章,涉及医学中的人工智能理论和实践,以医学为导向的人类生物学和卫生保健。医学中的人工智能可以被描述为与研究、项目和应用相关的科学学科,旨在通过基于知识或数据密集型的计算机解决方案支持基于决策的医疗任务,最终支持和改善人类护理提供者的性能。 官网地址:http://dblp.uni-trier.de/db/journals/artmed/
从ChatGPT看AI未来趋势和挑战 | 万字长文
专知会员服务
171+阅读 · 2023年4月18日
【ChatGPT系列报告】ChatGPT/GPT-4 如何赋能应用,31页pdf
专知会员服务
165+阅读 · 2023年4月9日
UCL最新「机器学习隐私」综述论文,概述隐私挑战
专知会员服务
36+阅读 · 2021年7月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Github 项目推荐 | PyTorch 实现的 GAN 文本生成框架
AI研习社
35+阅读 · 2019年6月10日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月20日
Arxiv
0+阅读 · 2023年5月19日
VIP会员
相关资讯
Github 项目推荐 | PyTorch 实现的 GAN 文本生成框架
AI研习社
35+阅读 · 2019年6月10日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
相关基金
Top
微信扫码咨询专知VIP会员