摘要: 探讨了以大语言模型(large language model,LLM)为代表的大模型(big model)时代人工智能(artificial intelligence, AI)发展面临的新挑战:道德价值观对齐问题. 大模型的崛起极大地提升了AI理解、生成和控制信息与内容的能力,从而赋能了丰富的下游应用. 然而,随着大模型成为与人类生活方方面面深度交融的基础,其内在的道德价值观和潜在的价值倾向对人类社会带来不可预测的风险. 首先对大模型面临的风险和挑战进行了梳理,介绍了当下主流的AI伦理准则和大模型的局限性对应的道德问题. 随后提出从规范伦理学的角度重新审视近年来不断提出的各类规范性准则,并倡导学界共同协作构建统一的普适性AI道德框架. 为进一步探究大模型的道德倾向,基于道德基础理论体系,检验了当下主流大语言模型的道德价值倾向,梳理了现有的大模型对齐算法,总结了大模型在道德价值观对齐上所面临的独特挑战. 为解决这些挑战,提出了一种新的针对大模型道德价值观对齐的概念范式,从对齐维度、对齐评测和对齐方法3个方面展望了有潜力的研究方向. 最后,倡导以交叉学科为基础,为将来构建符合人类道德观的通用AI迈出了重要一步. https://crad.ict.ac.cn/cn/article/doi/10.7544/issn1000-1239.202330553

成为VIP会员查看完整内容
78

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
【TPAMI2023】面向双任务对话语言理解的关系时序图推理
专知会员服务
22+阅读 · 2023年7月5日
面向智能博弈的决策Transformer方法综述
专知会员服务
184+阅读 · 2023年4月14日
NeurIPS2022|图对比学习的结构公平性初探
专知会员服务
17+阅读 · 2022年10月13日
知识增强预训练语言模型:全面综述
专知会员服务
89+阅读 · 2021年10月19日
专知会员服务
44+阅读 · 2021年8月6日
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
35+阅读 · 2021年6月16日
基于模型的强化学习综述
专知
33+阅读 · 2022年7月13日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
层级强化学习概念简介
CreateAMind
17+阅读 · 2019年6月9日
论文浅尝 | TuckER:基于张量分解的知识图谱补全
开放知识图谱
34+阅读 · 2019年3月17日
论文浅尝 | 面向单关系事实问题的中文问答模型
开放知识图谱
28+阅读 · 2019年2月11日
漫谈机器阅读理解之Facebook提出的DrQA系统
深度学习每日摘要
18+阅读 · 2017年11月19日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
VIP会员
相关VIP内容
【TPAMI2023】面向双任务对话语言理解的关系时序图推理
专知会员服务
22+阅读 · 2023年7月5日
面向智能博弈的决策Transformer方法综述
专知会员服务
184+阅读 · 2023年4月14日
NeurIPS2022|图对比学习的结构公平性初探
专知会员服务
17+阅读 · 2022年10月13日
知识增强预训练语言模型:全面综述
专知会员服务
89+阅读 · 2021年10月19日
专知会员服务
44+阅读 · 2021年8月6日
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
35+阅读 · 2021年6月16日
相关资讯
基于模型的强化学习综述
专知
33+阅读 · 2022年7月13日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
层级强化学习概念简介
CreateAMind
17+阅读 · 2019年6月9日
论文浅尝 | TuckER:基于张量分解的知识图谱补全
开放知识图谱
34+阅读 · 2019年3月17日
论文浅尝 | 面向单关系事实问题的中文问答模型
开放知识图谱
28+阅读 · 2019年2月11日
漫谈机器阅读理解之Facebook提出的DrQA系统
深度学习每日摘要
18+阅读 · 2017年11月19日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员