随着人工智能在医学、法律和国防等高风险领域的使用越来越多,组织花费大量时间和金钱使ML模型可信。许多关于这个主题的书都深入探讨了理论和概念。本指南提供了一个实用的起点,以帮助开发团队生成安全、更鲁棒、更少偏差和更易于解释的模型。 作者Yada Pruksachatkun、Matthew McAteer和Subhabrata Majumdar将学术文献中管理数据集和构建模型的最佳实践转化为构建行业级可信机器学习系统的蓝图。有了这本书,工程师和数据科学家将获得急需的基础,以便将可信的ML应用程序发布到一个嘈杂、混乱且通常充满敌意的世界。 你将学习:

向利益相关者解释机器学习模型及其输出的方法 如何识别和修复ML管道中的公平性问题和隐私泄露 如何开发鲁棒且安全的机器学习系统以抵御恶意攻击 重要的系统性考虑,如如何管理信任债务以及哪些ML障碍需要人工干预

https://www.oreilly.com/library/view/practicing-trustworthy-machine/9781098120269/

成为VIP会员查看完整内容
75

相关内容

【2022新书】数据隐私:工程师手册,799页pdf
专知会员服务
82+阅读 · 2022年6月20日
【新书稿】公平性与机器学习——限制与机会,253页pdf
专知会员服务
30+阅读 · 2022年3月8日
专知会员服务
57+阅读 · 2021年5月20日
专知会员服务
165+阅读 · 2020年6月4日
【硬核书】机器学习对抗鲁棒性,276页pdf
专知
7+阅读 · 2022年9月20日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
5+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年4月17日
Arxiv
99+阅读 · 2020年3月4日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
5+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员