Motivation: Many high-performance DTA models have been proposed, but they are mostly black-box and thus lack human interpretability. Explainable AI (XAI) can make DTA models more trustworthy, and can also enable scientists to distill biological knowledge from the models. Counterfactual explanation is one popular approach to explaining the behaviour of a deep neural network, which works by systematically answering the question "How would the model output change if the inputs were changed in this way?". Most counterfactual explanation methods only operate on single input data. It remains an open problem how to extend counterfactual-based XAI methods to DTA models, which have two inputs, one for drug and one for target, that also happen to be discrete in nature. Methods: We propose a multi-agent reinforcement learning framework, Multi-Agent Counterfactual Drug target binding Affinity (MACDA), to generate counterfactual explanations for the drug-protein complex. Our proposed framework provides human-interpretable counterfactual instances while optimizing both the input drug and target for counterfactual generation at the same time. Results: We benchmark the proposed MACDA framework using the Davis dataset and find that our framework produces more parsimonious explanations with no loss in explanation validity, as measured by encoding similarity and QED. We then present a case study involving ABL1 and Nilotinib to demonstrate how MACDA can explain the behaviour of a DTA model in the underlying substructure interaction between inputs in its prediction, revealing mechanisms that align with prior domain knowledge.


翻译:激励:许多高性能DTA模型已经提出,但大多是黑箱,因此缺乏人的解释性。可以解释的AI(XAI)模型可以使DTA模型更加可信,还可以使科学家从模型中蒸馏生物知识。反事实解释是一种解释深神经网络行为的流行方法,通过系统回答问题“如果投入以这种方式改变,模型产出变化将如何进行?” 。大多数反事实解释方法只能在单一输入数据上运作。它仍然是一个开放的问题,如何将反事实的XAI方法推广到DTA模型,这些模型有两个投入,一个用于药物,一个用于目标,这些投入在性质上也会不相干。方法:我们提议了一个多剂强化学习框架,多剂反实际药物目标结合的亲近性(MACDA),为药物综合体提供了反事实解释。我们提议的框架提供了人与结构的反事实实例,同时将输入的药物和目标优化为反事实生成。结果:我们用一个比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、解释性的解释性的解释性、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较的、比较

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
50+阅读 · 2020年11月17日
【DeepMind】强化学习教程,83页ppt
专知会员服务
147+阅读 · 2020年8月7日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
127+阅读 · 2020年5月14日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
已删除
将门创投
5+阅读 · 2019年8月19日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
1+阅读 · 2021年7月22日
VIP会员
相关VIP内容
相关资讯
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
已删除
将门创投
5+阅读 · 2019年8月19日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员