模型必须能够自我调整,以适应新环境。深度网络在过去十年取得了巨大成功,特别是当训练和测试数据来自相同的分布时。不幸的是,当训练(源)与测试(目标)数据不同时,性能会受到影响,这种情况称为域移位。模型需要自我更新以应对这些意外的自然干扰和对抗性扰动,如天气变化、传感器退化、对抗性攻击等。如果我们有一些标记的目标数据,可以使用一些迁移学习方法,如微调和少样本学习,以有监督的方式优化模型。然而,对目标标签的要求对于大多数现实场景是不实际的。**本文专注于无监督学习方法,以将模型泛化到目标域。

本文研究了完全测试时自适应的设置,在不获取目标标签和源数据的情况下,将模型更新到不可控的目标数据分布。换句话说,模型在这个设置中只有它的参数和未标记的目标数据。其核心思想是利用测试时间优化目标,熵最小化,作为可学习模型的反馈机制,在测试时间内关闭循环。我们通过在线或离线的方式优化模型,以测量输出熵的置信度。这种简单有效的方法可以降低自然破坏和对抗性扰动图像分类的泛化误差。此外,语义分割模型的自适应特性可用于处理场景理解的动态尺度推理。通过对比学习和扩散模型,我们可以学习目标域特征并生成源风格的图像,进一步提高动态环境下的识别性能。

https://www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-229.html

成为VIP会员查看完整内容
71

相关内容

加州大学伯克利分校(University of California, Berkeley),是美国最负盛名且是最顶尖的一所公立研究型大学,位于旧金山东湾伯克利市的山丘上。创建于1868年,是加州大学十个分校中历史最悠久的一所。加州大学伯克利分校在世界范围内拥有崇高的学术声誉,拥有丰富的教学资源,研究水平非常坚厚,与斯坦福大学、麻省理工学院等一同被誉为美国工程科技界的学术领袖。
【牛津大学博士论文】自监督学习视频理解,143页pdf
专知会员服务
39+阅读 · 2022年10月11日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
46+阅读 · 2022年8月17日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
14+阅读 · 2022年5月6日
Arxiv
46+阅读 · 2021年10月4日
Arxiv
65+阅读 · 2021年6月18日
Arxiv
18+阅读 · 2021年6月10日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员