简介: 本白皮书是Google Cloud AI解释产品随附的技术参考。 它面向负责设计和交付ML模型的模型开发人员和数据科学家。 我们的目标是让他们利用AI解释来简化模型开发并向主要利益相关者解释模型的行为。 产品经理,业务负责人和最终用户也可能会发现本白皮书的相关部分,特别是围绕AI解释的用例,以及至关重要的是围绕其正确用法及其当前限制的考虑。 具体来说,我们向这些读者介绍"用法示例"以及"归因限制和使用注意事项"部分。

白皮书的目录:

  • 特征归因(Feature Attributions)

  • 特征归因的限制和使用注意事项(Attribution Limitations and Usage Considerations)

  • 解释模型元数据(Explanation Model Metadata)

  • 使用What-if工具的可视化(Visualizations with the What-If Tool)

  • 使用范例(Usage Examples)

参考链接: https://cloud.google.com/ml-engine/docs/ai-explanations/overview

成为VIP会员查看完整内容
123

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
126+阅读 · 2020年5月14日
Python计算导论,560页pdf,Introduction to Computing Using Python
专知会员服务
69+阅读 · 2020年5月5日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
194+阅读 · 2020年2月24日
IBM《人工智能白皮书》(2019版),12页PDF,IBM编
专知会员服务
19+阅读 · 2019年11月8日
如何用TF Serving部署TensorFlow模型
AI研习社
26+阅读 · 2019年3月27日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
微软发布Visual Studio Tools for AI
AI前线
4+阅读 · 2017年11月20日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
Arxiv
91+阅读 · 2020年2月28日
Arxiv
7+阅读 · 2018年1月31日
VIP会员
微信扫码咨询专知VIP会员