在过去的十年中,人工智能(AI)作为一种通用工具,已在全球范围内成为一种颠覆性的力量。通过利用人工神经网络的力量,深度学习框架现在能够从数百种语言翻译文本,为每个人提供实时导航,识别病理医学图像,以及在社会的所有领域启用许多其他应用。然而,AI系统提供的巨大创新潜力和技术进步的机会,也带来了尚未完全探索,更不用说完全理解的危险和风险。我们可以强调AI系统改善医疗保健的机会,特别是在大流行病时期,提供自动化的移动性,支持环境保护,保护我们的安全,以及支持人类福利的其他方式。然而,我们必须不忽视AI系统可能对个人和社会构成的风险;例如通过传播偏见,破坏政治讨论,或者通过开发自主武器。这意味着,迫切需要对AI系统进行负责任的治理。这本手册应该成为详细阐述负责任AI可能成为的相关特性,以及我们如何在地区、国家和国际层面实现和实施它们的基础。因此,这本手册的目标是解决一些AI所提出的最紧迫的哲学、伦理、法律和社会挑战。但是,绘制AI系统的不确定性、利益和风险,特别是对于不同部门,并评估相关的伦理和法律规则,需要来自计算机科学、机器人技术、数学建模,以及来自不同大洲的作者对法律、哲学和伦理进行的跨学科和跨学科的规范性分析的广泛专业知识。因此,这本手册的作者从许多不同的角度探讨了负责任AI的技术和概念基础以及规范性方面。

这本手册由八部分组成,首先从负责任AI的基础开始(第一部分),然后是当前和未来的AI治理方法(第二部分),这些方法不仅限于欧洲和美国的方法。作者们进一步分析了责任制度(第三部分),并在负责任的数据治理方法被更详细地审查之前(第五部分),阐明了AI系统中的公平性和非歧视的核心问题(第四部分)。第六部分和第七部分的作者们讨论了AI系统特定领域的合理治理方法:这些系统可以是包括金融服务在内的公司治理以及包括神经技术在内的医疗保健领域的重要部分。第八部分的作者们特别处理了一些特别棘手和具有挑战性的问题,如AI在安全应用和武装冲突中的使用。

成为VIP会员查看完整内容
74

相关内容

【2023新书】工业4.0应用的智能分析,313页pdf
专知会员服务
79+阅读 · 2023年4月20日
【2023新书】可解释的深度学习AI:方法和挑战,348页pdf
专知会员服务
167+阅读 · 2023年3月26日
专知会员服务
65+阅读 · 2021年5月29日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
159+阅读 · 2020年10月10日
国家自然科学基金
5+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
399+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员