随着人工智能在医学、法律和国防等高风险领域的使用越来越多,组织花费大量时间和金钱使ML模型可信。许多关于这个主题的书都深入探讨了理论和概念。本指南提供了一个实用的起点,以帮助开发团队生成安全、更鲁棒、更少偏差和更易于解释的模型。 作者Yada Pruksachatkun、Matthew McAteer和Subhabrata Majumdar将学术文献中管理数据集和构建模型的最佳实践转化为构建行业级可信机器学习系统的蓝图。有了这本书,工程师和数据科学家将获得急需的基础,以便将可信的ML应用程序发布到一个嘈杂、混乱且通常充满敌意的世界。 你将学习:

向利益相关者解释机器学习模型及其输出的方法 如何识别和修复ML管道中的公平性问题和隐私泄露 如何开发鲁棒且安全的机器学习系统以抵御恶意攻击 重要的系统性考虑,如如何管理信任债务以及哪些ML障碍需要人工干预

https://www.oreilly.com/library/view/practicing-trustworthy-machine/9781098120269/

成为VIP会员查看完整内容
52

相关内容

【2022新书】构建微服务:设计细粒度系统,615页pdf
专知会员服务
58+阅读 · 2022年9月4日
【2022新书】网络安全的博弈论与机器学习,547页pdf
专知会员服务
80+阅读 · 2022年8月12日
【新书】机器学习算法,模型与应用,154页pdf
专知会员服务
72+阅读 · 2022年1月20日
【实用书】强化学习实战:Python,110页pdf
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
14+阅读 · 2021年7月18日
Learning in the Frequency Domain
Arxiv
10+阅读 · 2020年3月12日
Arxiv
14+阅读 · 2019年1月16日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员