利用Transformer替代MSA从蛋白序列中学习Contact Map

2021 年 2 月 3 日 CVer

点击上方“CVer”,选择加"星标"置顶

重磅干货,第一时间送达

本文转载自:GoDesign

——背景——

基于深度学习的蛋白结构预测在近年来取得了不少突破,其中最具代表性的工作包括AlphaFold[1]及其更新版本AlphaFold2。纵观该领域表现出色的模型,我们可以发现这他们大多都用到了多重序列比对信息(Multiple sequence alignmentMSA),即通过分析序列中的残基共进化(coevolution)信息来改善蛋白三维结构预测。利用MSA进行蛋白结构建模的典型流程如下:
  • 对目标蛋白及相关序列进行多重序列比对,实现这一步的常用工具包括JackhmmerHHblits
  • 根据序列比对结果,对残基间的进化相关性进行建模。实现这一步的典型做法是训练马尔可夫随机场(Markov Random Field MRF),如Gremlin[2]
  • 根据共进化信息对蛋白结构进行优化。可行的方法包括:将共进化对作为距离约束引入已有的优化器[3],或将其作为特征引入深度学习模型中[1]
尽管共进化信息对于蛋白结构预测能够提供显著的帮助,上述基于MSA的流程在实际应用中常常会碰到一些问题。近期,来自Facebook AI researchRao等人在ICLR2021会议上发表了题为“Transformer protein language models are unsupervised structure learners”的论文[Main],提出了一种利用Transformer来替代MSA,通过端到端(end-to-end)的方式直接预测残基间关联性的方法,名为ESM-1b。相比起基于MSA的流程,ESM-1b有如下优势:
  • ESM-1b能够绕开MSA流程里许多繁重的计算,如序列检索、序列匹配、MRF模型的训练等,而仅需一次网络前传(forward pass)就能得到结果;
  • ESM-1b具有很好的泛化能力,可以用于任意序列,而不像MSA要求有足够多的同源数据。
下面我们简单介绍EMS-1b的思想和模型的具体表现。

——方法——

ESM-1b的训练流程如图1所示。该模型的基本构架是Transformer,是目前自然语言处理(NLP)领域中的一类常用模型。Transformer 的基本思想是通过学习序列补全的方法来学习隐藏在序列中的结构信息。具体地,我们人为遮住序列中的部分残基,并要求模型根据其他残基来预测这些被遮住的残基类型。为了很好地完成这一项任务,深度学习模型需要从数据中学习残基间关联信息(体现在Transformer输出的attention map上)。最后,结合模型输出的attention map以及一个简单的逻辑斯蒂分类器,ESM-1b就可以实现Contact Map的预测了。

图1:ESM-1b的训练流程。


我们注意到在上述流程中,除了最后的逻辑斯蒂分类以外,ESM-1b主体部分(即Transformer)的训练不依赖三维结构信息,仅需未标注的蛋白序列信息,因此该流程在很大程度上是无监督的。ESM-1b模型在无监督预训练时使用了UniRef50数据集[4],在模型评价时选择了trRosetta的训练数据库[5],包含15051个蛋白,经过处理后蛋白数为14882,其中20个数据点用于逻辑斯蒂分类器的训练,其他用于模型评价。


——方法评价——


ESM-1b的主要比较对象是Gremlin,属于经典的基于MSA的方法。除此之外,作者还将ESM-1b与其他基于Transformer的方法进行了对比,包括TAPE[6]ProtBert-BFD[7]以及ESM-1(即ESM-1b的上一个版本,ESM-1b相比第一版进行了诸多超参数和构架上的优化)。模型评价的主要指标是Contact Map的预测准确性,分为短程(6<=sep<12)中程(12<=sep<24)以及长程(sep>=24)的残基接触预测准确性。评价结果如表1所示。作者还修改了模型的不同超参数(在下文中具体讨论),结果如表2所示。

 

表1:不同模型在Contact Map预测任务上的表现

表2:不同超参数对于模型表现的影响

从结果上来看,ESM-1b在各项指标上均优于其他模型。具体而言,ESM-1b有如下特点:

  • 与其他Transformer方法的对比:ESM-1b相比TAPE、ProtBERT-BFD以及ESM-1,在相互作用预测上表现都要更好(表1:第5-10行);

  • 与经典方法(Gremlin)的比较:作者发现ESM-1b在长程、中程和短程的相互作用预测上相比Gremlin都更加准确(表1第1、4行与最后一行),说明单独使用ESM-1b在蛋白结构预测上已经展现了较好的潜力。

  • 与经典方法的结合:作者还考虑了将ESM-1b与MSA结合构建ensemble model。具体的做法是:将MSA比对结果排名靠前的序列挑选出来,利用模型预测contact map,最后将结果进行平均。作者发现ensemble model能够进一步提升模型表现(见表2中s=16,32,64,其中s为用到的MSA序列数);

  • 无监督预训练对模型准确性的贡献:通过分析结果,作者发现ESM-1b的优异表现主要来自于模型的无监督预训练(即Transformer)。作者首先发现,仅使用attention map中的一个attention head就可以达到与Gremlin同样水平的表现(表2,top-1 heads),说明逻辑斯蒂监督学习得到的权重在模型表现上并非主要贡献。其次,作者发现逻辑斯蒂分类仅需很少的训练样本(表2第6-8行,样本数n=1, 10, 10),就可以实现优于Gremlin的表现,进一步说明了无监督训练的重要作用。


——小结——


总结起来,Rao等人提出了一种基于Transformer的蛋白序列无监督学习方法。和简单的逻辑斯蒂分类结合之后,该模型在contact map预测上能够达到比基于MSA的方法更好的表现。这一类方法相比MSA有许多潜在的优势,例如不需要进行序列比对、运行更方便、具有很好的泛化能力等,因此在蛋白结构预测任务上有潜力成为MSA的替代方法。但是这篇文章并没有回答所有问题。例如,这篇文章只关注了contact map预测,而并没有实际考察其在实际三维结构预测方面的表现。因为缺乏这方面的结果,目前我们暂不明确这一类模型在多大程度上能够替代MSA。

 

参考文献:

[Main] Rao, Roshan, et al. "Transformer protein language models are unsupervised structure learners." bioRxiv (2020).

[1] Senior, Andrew W. et al. “Improved Protein Structure Prediction Using Potentials from Deep Learning.” Nature 577.7792 (2020): 706–710.

[2]Balakrishnan, Sivaraman et al. “Learning Generative Models for Protein Fold Families.” Proteins: Structure, Function, and Bioinformatics 79.4(2011): 1061–1078.

[3]Ovchinnikov, Sergey et al. “Improved de Novo Structure Prediction in CASP11 by Incorporating Coevolution Information into Rosetta.” Proteins: Structure,Function, and Bioinformatics 84.S1 (2016): 67–75.

[4]Suzek, Baris E., et al. "UniRef clusters: a comprehensive and scalable alternative for improving sequence similarity searches." Bioinformatics 31.6 (2015): 926-932.

[5]Yang, Jianyi, et al. "Improved protein structure prediction using predicted interresidue orientations." Proceedings of the National Academy of Sciences 117.3 (2020): 1496-1503.

[6]Rao, Roshan, et al. "Evaluating protein transfer learning with tape." Advances in Neural Information Processing Systems 32 (2019): 9689.

[7] Elnaggar, Ahmed, et al. "ProtTrans: Towards Cracking the Language of Life's Code Through Self-Supervised Deep Learning and High-Performance Computing." arXiv:2007.06225 (2020).


点击左下角的"阅读原文"即可查看原文章。


作者:李亦博  |  审稿:徐优俊

王世伟  |  编辑:林康杰


CV资源下载

后台回复:Transformer综述,即可下载两个最新的视觉Transformer综述PDF,肝起来!


重磅!CVer-Transformer交流群成立


扫码添加CVer助手,可申请加入CVer-Transformer方向 微信交流群,可申请加入CVer大群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、Transformer、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如Transformer+上海+上交+卡卡),根据格式备注,才能通过且邀请进群


▲长按加微信群


▲长按关注CVer公众号

整理不易,请给CVer点赞和在看

登录查看更多
5

相关内容

马尔可夫随机场(Markov Random Field),也有人翻译为马尔科夫随机场,马尔可夫随机场是建立在马尔可夫模型和贝叶斯理论基础之上的,它包含两层意思:一是什么是马尔可夫,二是什么是随机场。
专知会员服务
21+阅读 · 2021年3月9日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021】双级协作变换器Transformer图像描述生成
专知会员服务
26+阅读 · 2021年1月26日
注意力机制综述
专知会员服务
82+阅读 · 2021年1月26日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Transformer 在美团搜索排序中的实践
AINLP
3+阅读 · 2020年4月17日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
3分钟看懂史上最强NLP模型BERT
新智元
23+阅读 · 2019年2月27日
通过预训练提升语言理解
开放知识图谱
4+阅读 · 2018年11月21日
利用 Universal Transformer,翻译将无往不利!
谷歌开发者
5+阅读 · 2018年9月4日
Multiscale Vision Transformers
Arxiv
1+阅读 · 2021年4月22日
Arxiv
0+阅读 · 2021年4月21日
Arxiv
0+阅读 · 2021年4月21日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
15+阅读 · 2020年2月5日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
专知会员服务
21+阅读 · 2021年3月9日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021】双级协作变换器Transformer图像描述生成
专知会员服务
26+阅读 · 2021年1月26日
注意力机制综述
专知会员服务
82+阅读 · 2021年1月26日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
相关资讯
Transformer 在美团搜索排序中的实践
AINLP
3+阅读 · 2020年4月17日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
3分钟看懂史上最强NLP模型BERT
新智元
23+阅读 · 2019年2月27日
通过预训练提升语言理解
开放知识图谱
4+阅读 · 2018年11月21日
利用 Universal Transformer,翻译将无往不利!
谷歌开发者
5+阅读 · 2018年9月4日
相关论文
Multiscale Vision Transformers
Arxiv
1+阅读 · 2021年4月22日
Arxiv
0+阅读 · 2021年4月21日
Arxiv
0+阅读 · 2021年4月21日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
15+阅读 · 2020年2月5日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员