Viral infections are causing significant morbidity and mortality worldwide. Understanding the interaction patterns between a particular virus and human proteins plays a crucial role in unveiling the underlying mechanism of viral infection and pathogenesis. This could further help in the prevention and treatment of virus-related diseases. However, the task of predicting protein-protein interactions between a new virus and human cells is extremely challenging due to scarce data on virus-human interactions and fast mutation rates of most viruses. We developed a multitask transfer learning approach that exploits the information of around 24 million protein sequences and the interaction patterns from the human interactome to counter the problem of small training datasets. Instead of using hand-crafted protein features, we utilize statistically rich protein representations learned by a deep language modeling approach from a massive source of protein sequences. Additionally, we employ an additional objective which aims to maximize the probability of observing human protein-protein interactions. This additional task objective acts as a regularizer and also allows to incorporate domain knowledge to inform the virus-human protein-protein interaction prediction model. Our approach achieved competitive results on 13 benchmark datasets and the case study for the SAR-CoV-2 virus receptor. Experimental results show that our proposed model works effectively for both virus-human and bacteria-human protein-protein interaction prediction tasks. We share our code for reproducibility and future research at https://git.l3s.uni-hannover.de/dong/multitask-transfer.


翻译:了解特定病毒和人类蛋白质之间的相互作用模式在揭开病毒感染和病原体的基本机制方面发挥着关键的作用。这可以进一步帮助预防和治疗与病毒有关的疾病。然而,预测新病毒和人类细胞之间的蛋白质-蛋白相互作用的任务具有极大的挑战性,因为有关病毒-人类相互作用和大多数病毒快速突变率的数据稀少。我们开发了一个多任务传输学习方法,利用大约2,400万个蛋白序列的信息和人类互动模式来应对小型培训数据集问题。我们的方法不是使用手工制作的蛋白质特征,而是利用从大量蛋白序列来源的深语言建模方法所学到的具有丰富统计数据的蛋白质表现。此外,我们采用了另一个目标,目的是最大限度地提高观察人类蛋白-蛋白相互作用的可能性。这个额外任务目标作为常规化工具,还允许纳入域知识,为病毒-人类蛋白质-蛋白质互动预测模型和人类互动模式提供信息。我们的方法在13个基准数据设置上取得了竞争性结果,并且为人类- 实验-CO-RO-RV 共享的实验结果和人类-结果-结果-我们未来的分析-人类-病毒/病毒分析研究-结果-结果-结果-我们提议的重新计算-结果-病毒-预化-人类-病毒-结果-结果-病毒-分析-病毒-预化-分析-结果-分析-结果-病毒-分析-病毒-病毒-病毒-分析-分析-病毒-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-分析-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-人类-病毒-病毒-病毒-病毒-病毒-病毒-生物-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-生物-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒-病毒

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
CIKM2020推荐系统论文集合
机器学习与推荐算法
10+阅读 · 2020年10月13日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
14+阅读 · 2019年9月11日
Learning Recommender Systems from Multi-Behavior Data
VIP会员
相关资讯
CIKM2020推荐系统论文集合
机器学习与推荐算法
10+阅读 · 2020年10月13日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员