经过数百万种不同序列训练的无监督蛋白质语言模型可以学习蛋白质的结构和功能。迄今为止,研究的蛋白质语言模型都是经过训练的,可以从单个序列进行推断。长期以来,计算生物学的方法一直是通过独立地将一个模型拟合到每个家族中,从一个进化相关的序列家族中做出推论。在这项工作中,我们结合了两种范式。我们引入了一种蛋白质语言模型,它以多序列比对的形式将一组序列作为输入。该模型在输入序列中穿插行和列注意力,并使用跨许多蛋白质家族的掩码语言建模目标的变体进行训练。该模型的性能大大超过了目前最先进的无监督结构学习方法,参数效率远高于之前的最先进的蛋白质语言模型。

http://proceedings.mlr.press/v139/rao21a.html

成为VIP会员查看完整内容
33

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
33+阅读 · 2021年9月18日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
45+阅读 · 2021年9月3日
专知会员服务
37+阅读 · 2021年8月20日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
35+阅读 · 2021年6月3日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
80+阅读 · 2021年5月10日
【Mila】通用表示Transformer少样本图像分类
专知会员服务
32+阅读 · 2020年9月7日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
7+阅读 · 2020年8月26日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
利用 Universal Transformer,翻译将无往不利!
谷歌开发者
5+阅读 · 2018年9月4日
Arxiv
0+阅读 · 2021年10月11日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
6+阅读 · 2019年3月19日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
5+阅读 · 2017年12月29日
VIP会员
相关VIP内容
专知会员服务
33+阅读 · 2021年9月18日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
45+阅读 · 2021年9月3日
专知会员服务
37+阅读 · 2021年8月20日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
35+阅读 · 2021年6月3日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
80+阅读 · 2021年5月10日
【Mila】通用表示Transformer少样本图像分类
专知会员服务
32+阅读 · 2020年9月7日
相关资讯
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
KDD20 | AM-GCN:自适应多通道图卷积网络
专知
7+阅读 · 2020年8月26日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
利用 Universal Transformer,翻译将无往不利!
谷歌开发者
5+阅读 · 2018年9月4日
相关论文
Arxiv
0+阅读 · 2021年10月11日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
6+阅读 · 2019年3月19日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
5+阅读 · 2017年12月29日
微信扫码咨询专知VIP会员