从更好理解的形式系统的角度来描述神经网络,有可能产生对这些网络的力量和局限性的新见解。对于transformer来说,这仍然是一个活跃的研究领域。Bhattamishra和其他人已经表明,transformer编码器的表达能力至少与某种计数器机器一样强,而Merrill和Sabharwal已经表明,固定精度的transformer编码器只能识别统一TC中的语言。通过识别具有计数量词的一阶逻辑变体,将这些结果联系起来并加强,该变体同时是固定精度transformer编码器的上界和transformer编码器的下界。这使我们比以前更接近transformer编码器识别的语言的确切特征。

https://www.zhuanzhi.ai/paper/571bd61949e3574aa0b115cf779fbb9e

成为VIP会员查看完整内容
29

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
24+阅读 · 2023年6月1日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知会员服务
32+阅读 · 2022年7月27日
【ICML2022】Transformer是元强化学习器
专知会员服务
50+阅读 · 2022年6月15日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
28+阅读 · 2021年5月21日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
80+阅读 · 2021年5月10日
【KDD2022】自监督超图Transformer推荐系统
专知
1+阅读 · 2022年8月1日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
【ICML2022】通过能量最小化学习迭代推理
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
69+阅读 · 2022年6月13日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
24+阅读 · 2023年6月1日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知会员服务
32+阅读 · 2022年7月27日
【ICML2022】Transformer是元强化学习器
专知会员服务
50+阅读 · 2022年6月15日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
28+阅读 · 2021年5月21日
【ICML2021】具有线性复杂度的Transformer的相对位置编码
专知会员服务
24+阅读 · 2021年5月20日
专知会员服务
80+阅读 · 2021年5月10日
相关资讯
【KDD2022】自监督超图Transformer推荐系统
专知
1+阅读 · 2022年8月1日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
【ICML2022】通过能量最小化学习迭代推理
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
深入理解BERT Transformer ,不仅仅是注意力机制
大数据文摘
22+阅读 · 2019年3月19日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
69+阅读 · 2022年6月13日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
15+阅读 · 2020年2月5日
微信扫码咨询专知VIP会员