【伯克利博士论文】学习在动态环境中泛化,103页pdf

2022 年 10 月 12 日 专知

模型必须能够自我调整,以适应新环境。深度网络在过去十年取得了巨大成功,特别是当训练和测试数据来自相同的分布时。不幸的是,当训练(源)与测试(目标)数据不同时,性能会受到影响,这种情况称为域移位。模型需要自我更新以应对这些意外的自然干扰和对抗性扰动,如天气变化、传感器退化、对抗性攻击等。如果我们有一些标记的目标数据,可以使用一些迁移学习方法,如微调和少样本学习,以有监督的方式优化模型。然而,对目标标签的要求对于大多数现实场景是不实际的。本文专注于无监督学习方法,以将模型泛化到目标域。
本文研究了完全测试时自适应的设置,在不获取目标标签和源数据的情况下,将模型更新到不可控的目标数据分布 。换句话说,模型在这个设置中只有它的参数和未标记的目标数据。其核心思想是利用测试时间优化目标,熵最小化,作为可学习模型的反馈机制,在测试时间内关闭循环。我们通过在线或离线的方式优化模型,以测量输出熵的置信度。这种简单有效的方法可以降低自然破坏和对抗性扰动图像分类的泛化误差。此外,语义分割模型的自适应特性可用于处理场景理解的动态尺度推理。通过对比学习和扩散模型,我们可以学习目标域特征并生成源风格的图像,进一步提高动态环境下的识别性能。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“D103” 就可以获取【伯克利博士论文】学习在动态环境中泛化,103页pdf》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
4

相关内容

【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
46+阅读 · 2022年8月17日
专知会员服务
23+阅读 · 2021年7月10日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
62+阅读 · 2021年3月12日
【NeurIPS2022】分布式自适应元强化学习
专知
3+阅读 · 2022年10月8日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2022年11月22日
Arxiv
0+阅读 · 2022年11月18日
A survey on deep hashing for image retrieval
Arxiv
14+阅读 · 2020年6月10日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关VIP内容
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
46+阅读 · 2022年8月17日
专知会员服务
23+阅读 · 2021年7月10日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
62+阅读 · 2021年3月12日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员