对人工智能(AI)负责,利用其力量,同时将个人和社会的风险降到最低,是我们这个时代的最大挑战之一。关于负责任人工智能的讨论正在学术界、政策制定和企业沟通中蓬勃发展。在这篇社论中,我们展示了不同的文献链是如何交织在一起的,但也有分歧,并提出了负责任人工智能的全面定义,即以人为本的方式开发、使用和管理人工智能,以确保人工智能值得信任并遵守人类的基本价值观。这个定义澄清了负责任人工智能并不是一类具有特殊属性或可以承担责任的人工智能人工制品,人类最终要对人工智能负责,对其后果负责,对控制人工智能的发展和使用负责。我们解释了本期特刊中的四篇论文是如何体现不同的负责任的人工智能实践的,并将他们的发现综合为一个综合框架,包括商业模式、服务/产品、设计过程和数据。我们建议IS研究可以为负责任的人工智能提供社会相关的知识,提供关于如何平衡工具性和人文性人工智能结果的见解,并为未来关于负责任的人工智能的IS研究提出主题。

成为VIP会员查看完整内容
23

相关内容

《在国防中实现负责任的人工智能》2023最新报告
专知会员服务
44+阅读 · 2023年2月22日
《美国陆军信息条令的起源和历史》2022最新200页论文
专知会员服务
43+阅读 · 2022年12月30日
【英国国防部】《兵棋推演手册》112页PDF
专知
19+阅读 · 2022年8月25日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2023年3月10日
Arxiv
0+阅读 · 2023年2月21日
Arxiv
92+阅读 · 2021年5月17日
Arxiv
14+阅读 · 2020年10月26日
Arxiv
15+阅读 · 2019年9月30日
VIP会员
相关VIP内容
《在国防中实现负责任的人工智能》2023最新报告
专知会员服务
44+阅读 · 2023年2月22日
《美国陆军信息条令的起源和历史》2022最新200页论文
专知会员服务
43+阅读 · 2022年12月30日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
相关论文
Arxiv
0+阅读 · 2023年3月10日
Arxiv
0+阅读 · 2023年2月21日
Arxiv
92+阅读 · 2021年5月17日
Arxiv
14+阅读 · 2020年10月26日
Arxiv
15+阅读 · 2019年9月30日
微信扫码咨询专知VIP会员