【Nature-MI】可解释人工智能的药物发现

2020 年 11 月 1 日 专知


深度学习在药物发现方面很有前景,包括高级图像分析、分子结构和功能的预测,以及具有定制属性的创新化学实体的自动生成。尽管有越来越多的成功的应用前景,但基本的数学模型仍然很难被人类的思维所解释。有一种“可解释的”深度学习方法的需求,以解决对分子科学机器语言新叙述的需求。这篇综述总结了可解释人工智能的最突出的算法概念,并预测了未来的机会,潜在的应用以及一些仍然存在的挑战。我们还希望它鼓励进一步努力发展和接受可解释的人工智能技术。


https://www.nature.com/articles/s42256-020-00236-4


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“AIDD” 可以获取《【【Nature-MI】可解释人工智能的药物发现》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
6

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
DARPA可解释人工智能
专知会员服务
126+阅读 · 2020年12月22日
专知会员服务
39+阅读 · 2020年10月13日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
162+阅读 · 2019年12月21日
知识图谱在可解释人工智能中的作用,附81页ppt
专知会员服务
137+阅读 · 2019年11月11日
深度学习模型可解释性的研究进展
专知
25+阅读 · 2020年8月1日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
医疗中的自动机器学习和可解释性
专知
24+阅读 · 2019年4月1日
VIP会员
Top
微信扫码咨询专知VIP会员