现代AI系统和方法带来了哪些存在性和社会风险?我们如何缓解这些风险,确保AI系统安全且与其构建者的意图保持一致?目前正在采取哪些措施以确保AI系统的安全性?当前的安全保障措施是否足够,如果不足,我们又该如何改进? 这些是我们将在本高级研讨会中考虑的问题。将考虑来自多个学科的多样化主题,包括用于对齐的算法和优化方法、应用于AI的身心问题、责任与自由选择问题、AI突破预测的经济影响等。 本课程的主题不包括AI公平性,因为这一重要主题已在其他课程中涵盖。

课程将呈现AI对齐和安全领域领先思想家的讲座,以及学生对讲师选定阅读材料的演讲。 这是一门高级研究生课程,面向所有研究生和本科生开放,尽管预期需要在机器学习/人工智能方面有广泛的准备(需要COS 324或等同课程)。 引言 能力与扩展 奖励与目标 理解与匹配伦理 对抗性攻击与红队操作 对齐的博弈论方法 可解释性 人工通用智能(AGI)的经济影响 AGI在黑客/计算机安全方面的影响 对AI风险的批评

https://sites.google.com/view/cos598aisafety/home?authuser=0

成为VIP会员查看完整内容
48

相关内容

人工智能安全风险指的是指安全威胁利用人工智能资产的脆弱性,引发人工智能安全事件或对相关方造成影响。
不可错过!CMU《结构化数据机器学习》课程,附Slides
专知会员服务
54+阅读 · 2022年11月2日
不可错过!斯坦福《语音语言处理》技术课程
专知会员服务
38+阅读 · 2022年5月2日
【AAAI2021】预训练语言模型最新进展,附113页ppt和视频
专知会员服务
64+阅读 · 2021年2月23日
专知会员服务
33+阅读 · 2020年12月28日
从入门到精通-Tensorflow深度强化学习课程
深度学习与NLP
23+阅读 · 2019年3月7日
手把手教你如何部署深度学习模型
全球人工智能
17+阅读 · 2018年2月5日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年4月30日
国家自然科学基金
32+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年4月30日
国家自然科学基金
32+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员