Transformer architectures have exhibited promising performance in various autonomous driving applications in recent years. On the other hand, its dedicated hardware acceleration on portable computational platforms has become the next critical step for practical deployment in real autonomous vehicles. This survey paper provides a comprehensive overview, benchmark, and analysis of Transformer-based models specifically tailored for autonomous driving tasks such as lane detection, segmentation, tracking, planning, and decision-making. We review different architectures for organizing Transformer inputs and outputs, such as encoder-decoder and encoder-only structures, and explore their respective advantages and disadvantages. Furthermore, we discuss Transformer-related operators and their hardware acceleration schemes in depth, taking into account key factors such as quantization and runtime. We specifically illustrate the operator level comparison between layers from convolutional neural network, Swin-Transformer, and Transformer with 4D encoder. The paper also highlights the challenges, trends, and current insights in Transformer-based models, addressing their hardware deployment and acceleration issues within the context of long-term autonomous driving applications.


翻译:Transformer架构在近年来各种自动驾驶应用中展现出了良好的表现。而其在便携式计算平台上的专业硬件加速已成为实际部署到真实自动驾驶汽车中的下一步关键步骤。本综述论文提供了一份针对自动驾驶任务的Transformer基础模型的全面概述、基准测试和分析,例如车道检测、分割、跟踪、规划和决策。我们回顾了不同的Transformer输入和输出组织结构,例如编码器-解码器和仅编码器结构,并探讨了它们各自的优点和缺点。此外,我们深入讨论了与Transformer相关的操作符及其硬件加速方案,考虑到关键因素,例如量化和运行时间。我们特别说明了来自卷积神经网络、Swin-Transformer和4D编码器的层之间的操作符级比较。本文还重点介绍了Transformer基础模型中的挑战、趋势和当前见解,涉及长期自动驾驶应用中的硬件部署和加速问题。

0
下载
关闭预览

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
最新《Transformers模型》教程,64页ppt
专知会员服务
274+阅读 · 2020年11月26日
专知会员服务
59+阅读 · 2020年3月19日
深度神经网络模型压缩与加速综述
专知会员服务
126+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【动态】第四届新一代计算机动画技术研讨会成功举办
中国图象图形学学会CSIG
0+阅读 · 2022年7月25日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
13+阅读 · 2019年5月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月2日
Arxiv
23+阅读 · 2023年1月5日
Arxiv
29+阅读 · 2022年9月10日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
15+阅读 · 2022年1月24日
Arxiv
20+阅读 · 2021年9月21日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
VIP会员
相关资讯
【动态】第四届新一代计算机动画技术研讨会成功举办
中国图象图形学学会CSIG
0+阅读 · 2022年7月25日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
13+阅读 · 2019年5月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
相关论文
Arxiv
0+阅读 · 2023年6月2日
Arxiv
23+阅读 · 2023年1月5日
Arxiv
29+阅读 · 2022年9月10日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
15+阅读 · 2022年1月24日
Arxiv
20+阅读 · 2021年9月21日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员