**随着人工智能系统(通常实现为黑箱ML模型)越来越多地部署在高风险领域,在过去几年中出现了一个关于可信和负责任人工智能(TRAI)的新研究重点,并吸引了学术界、工业界和政府机构的兴趣。本教程涵盖了TRAI在三个子领域的最新进展:公平性,可解释性和透明度。**我们不仅讨论了每个子区域内的基础和前沿研究,还讨论了它们的相互作用。本书涵盖了各种现实生活中的应用,如自动驾驶、医疗诊断和司法系统。本教程还特别强调了帮助ML研究和生产开发和部署可信和负责任的系统的工具和流程。 本教程对广泛的受众都有兴趣,他们将以不同的方式从本教程中受益。TRAI的研究人员将了解该领域的最新进展,特别是在子领域交叉的工作。实践者将学习模型调试和审计的有效方法。政策和决策者将学习抽象概念的算法实现(例如,公平性和可解释性标准),以参与技术对话。我们建议你对机器学习有一个大致的了解,但不需要熟悉任何TRAI主题。

https://yilunzhou.github.io/aaai2023tutorial/

成为VIP会员查看完整内容
32

相关内容

专知会员服务
57+阅读 · 2021年5月20日
【AAAI2021 Tutorial】工业界负责任的人工智能,262页ppt
专知会员服务
114+阅读 · 2021年2月7日
【PKDD2020教程】可解释人工智能XAI:算法到应用,200页ppt
专知会员服务
99+阅读 · 2020年10月13日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
166+阅读 · 2020年5月27日
最新可信推荐系统综述, 6个维度71页463篇文献介绍其前沿进展
机器学习与推荐算法
0+阅读 · 2022年9月30日
【ICML2022教程】因果公平性分析,68页ppt
专知
2+阅读 · 2022年7月19日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
21+阅读 · 2021年12月2日
Arxiv
21+阅读 · 2018年2月14日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员