医疗中的自动机器学习和可解释性

2019 年 4 月 1 日 专知


导读

医疗保健行业需要精确和高度可解释的模型。根据医疗保健的应用领域(临床和操作),这些模型可以从预测到分割和聚类到分类和回归,包括自然语言处理(NLP)和图像处理等领域。然而,数据往往会受到信息缺失和值错误的困扰,因此数据准备和建立一个具有可解释性的模型都是一项耗费时间的任务。


作者 | Taposh DuttaRoy、Sabrina Dahlren

编译 | Xiaowen



Taposh DuttaRoy和Sabrina Dahlgren讨论AutoML和可解释性的工具和策略,并解释Kaiser Permanente公司如何使用它们来改进开发和部署高度可解释模型。


1

作者介绍


Taposh DuttaRoy


Taposh DuttaRoy 领导 Kaiser Permanente 决策支持小组内的创新团队。他的工作重点是旅程分析,深度学习,数据科学架构和战略。Taposh是一个以消费者为中心的机器学习和数据科学极客,拥有独特的产品、技术和战略咨询、数据科学和创业经验的组合。


Sabrina Dahlgren


Sabrina Dahlren 是 Kaiser Permanente 公司负责战略分析的主管。她的专长从统计和经济学到项目管理和计算机科学。

Slides 分享

2


【Slides便捷下载】

请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“医疗自动机器学习” 就可以获取《AutoML and Interpretablity in Healthcare的下载链接~ 




-END-

专 · 知

专知《深度学习:算法到实战》课程全部完成!520+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询《深度学习:算法到实战》课程,咨询技术商务合作~

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
24

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
自动机器学习:最新进展综述
专知会员服务
118+阅读 · 2019年10月13日
医疗知识图谱构建与应用
专知会员服务
384+阅读 · 2019年9月25日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
【资源推荐】AI可解释性资源汇总
专知
47+阅读 · 2019年4月24日
机器学习可解释性工具箱XAI
专知
11+阅读 · 2019年2月8日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
AutoML: A Survey of the State-of-the-Art
Arxiv
69+阅读 · 2019年8月14日
Arxiv
12+阅读 · 2018年9月5日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员