时间序列对齐方法需要具有高度表达性、可微性和可逆性的扭曲函数来保持时间拓扑,即差分同构。在常微分方程(ODE)控制下的速度场积分可以产生异形扭曲函数。包含异构变换的基于梯度的优化框架需要计算微分方程的解对模型参数的导数,即敏感性分析。不幸的是,深度学习框架通常缺乏自动微分兼容的灵敏度分析方法;隐函数,比如ODE的解,需要特别小心。目前的解决方案呼吁伴随灵敏度方法,特别的数值求解或ResNet的欧拉离散化。在这项工作中,我们提出了一个闭合形式的ODE解及其梯度在连续分段仿射(CPA)速度函数。我们提出了一个高度优化的结果在CPU和GPU上的实现。此外,我们在多个数据集上进行了大量的实验,以验证我们的模型对不可见数据的泛化能力。结果表明,在效率和准确性方面都有显著提高。 https://www.zhuanzhi.ai/paper/6bf12cef7552c6267240f4067265d338

成为VIP会员查看完整内容
11

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议,也是CCF-A类学术会议。ICML 2022 共收到5630 投稿,接收1117 篇 short oral,118篇 long oral,录用率为21.94%。
【ICML2022】Transformer是元强化学习器
专知会员服务
52+阅读 · 2022年6月15日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
30+阅读 · 2021年7月19日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
31+阅读 · 2021年6月24日
专知会员服务
81+阅读 · 2021年5月10日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
【ICLR2022】Transformers亦能贝叶斯推断
专知
0+阅读 · 2021年12月23日
NeurIPS 2021丨K-Net: 迈向统一的图像分割
专知
0+阅读 · 2021年11月25日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年8月4日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
23+阅读 · 2021年3月4日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
VIP会员
相关VIP内容
【ICML2022】Transformer是元强化学习器
专知会员服务
52+阅读 · 2022年6月15日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
30+阅读 · 2021年7月19日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
31+阅读 · 2021年6月24日
专知会员服务
81+阅读 · 2021年5月10日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年8月4日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
23+阅读 · 2021年3月4日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
微信扫码咨询专知VIP会员