随着人工智能在医学、法律和国防等高风险领域的使用越来越多,组织花费大量时间和金钱使ML模型可信。许多关于这个主题的书都深入探讨了理论和概念。本指南提供了一个实用的起点,以帮助开发团队生成安全、更健壮、更少偏差和更易于解释的模型。

作者Yada Pruksachatkun、Matthew McAteer和Subhabrata Majumdar将学术文献中管理数据集和构建模型的最佳实践转化为构建行业级可信机器学习系统的蓝图。有了这本书,工程师和数据科学家将获得急需的基础,以便将可信的ML应用程序发布到一个嘈杂、混乱且通常充满敌意的世界。

https://www.oreilly.com/library/view/practicing-trustworthy-machine/9781098120269/ 你将学习: * 向利益相关者解释机器学习模型及其输出的方法 * 如何识别和修复ML管道中的公平性问题和隐私泄露 * 如何开发健壮且安全的机器学习系统以抵御恶意攻击 * 重要的系统性考虑,如如何管理信任债务以及哪些ML障碍需要人工干预

成为VIP会员查看完整内容
46

相关内容

【硬核书】机器学习对抗鲁棒性,276页pdf
专知会员服务
82+阅读 · 2022年9月20日
【2022新书】数据隐私:工程师手册,799页pdf
专知会员服务
66+阅读 · 2022年6月20日
专知会员服务
69+阅读 · 2021年6月7日
【2021新书】面向健康的机器学习与人工智能,428页pdf
专知会员服务
107+阅读 · 2021年5月21日
一图掌握《可解释人工智能XAI》操作指南
专知会员服务
54+阅读 · 2021年5月3日
专知会员服务
101+阅读 · 2020年11月27日
【2020新书】Web应用安全,331页pdf
专知会员服务
18+阅读 · 2020年10月24日
【硬核书】机器学习对抗鲁棒性,276页pdf
专知
1+阅读 · 2022年9月20日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月1日
Arxiv
12+阅读 · 2022年4月12日
Arxiv
40+阅读 · 2021年10月4日
VIP会员
相关VIP内容
【硬核书】机器学习对抗鲁棒性,276页pdf
专知会员服务
82+阅读 · 2022年9月20日
【2022新书】数据隐私:工程师手册,799页pdf
专知会员服务
66+阅读 · 2022年6月20日
专知会员服务
69+阅读 · 2021年6月7日
【2021新书】面向健康的机器学习与人工智能,428页pdf
专知会员服务
107+阅读 · 2021年5月21日
一图掌握《可解释人工智能XAI》操作指南
专知会员服务
54+阅读 · 2021年5月3日
专知会员服务
101+阅读 · 2020年11月27日
【2020新书】Web应用安全,331页pdf
专知会员服务
18+阅读 · 2020年10月24日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员