随着人工智能在医学、法律和国防等高风险领域的使用越来越多,组织花费大量时间和金钱使ML模型可信。许多关于这个主题的书都深入探讨了理论和概念。本指南提供了一个实用的起点,以帮助开发团队生成安全、更健壮、更少偏差和更易于解释的模型。

作者Yada Pruksachatkun、Matthew McAteer和Subhabrata Majumdar将学术文献中管理数据集和构建模型的最佳实践转化为构建行业级可信机器学习系统的蓝图。有了这本书,工程师和数据科学家将获得急需的基础,以便将可信的ML应用程序发布到一个嘈杂、混乱且通常充满敌意的世界。

https://www.oreilly.com/library/view/practicing-trustworthy-machine/9781098120269/ 你将学习: * 向利益相关者解释机器学习模型及其输出的方法 * 如何识别和修复ML管道中的公平性问题和隐私泄露 * 如何开发健壮且安全的机器学习系统以抵御恶意攻击 * 重要的系统性考虑,如如何管理信任债务以及哪些ML障碍需要人工干预

成为VIP会员查看完整内容
81

相关内容

【2022新书】联邦学习:方法和应用的综合概述
专知会员服务
144+阅读 · 2022年7月14日
【2022新书】数据隐私:工程师手册,799页pdf
专知会员服务
82+阅读 · 2022年6月20日
专知会员服务
59+阅读 · 2021年5月20日
专知会员服务
171+阅读 · 2020年6月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年3月1日
Arxiv
46+阅读 · 2021年10月4日
Arxiv
21+阅读 · 2019年3月25日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员