Transformer 作为一种基于注意力的编码器 - 解码器架构,不仅彻底改变了自然语言处理(NLP)领域,还在计算机视觉(CV)领域做出了一些开创性的工作。与卷积神经网络(CNN)相比,视觉 Transformer(ViT)依靠出色的建模能力,在 ImageNet、COCO 和 ADE20k 等多个基准上取得了非常优异的性能。
正如德克萨斯大学奥斯汀分校的计算机科学家 Atlas Wang 说:我们有充分的理由尝试在整个 AI 任务范围内尝试使用 Transformer。
因此,无论是学术界的研究人员,还是工业界的相关从业者,都有必要对Transformer技术深入了解,并且紧跟Transformer的前沿研究,以此来夯实自己技术积累。
AI是一门入门简单,但想深入却很难的学科,这也是为什么AI高端人才一直非常紧缺的重要原因。
在工作中:
你是否能够按照实际的场景灵活提出新的模型?
或者提出对现有模型的改造?
实际上这些是核心竞争力,同时是走向高端人才必须要经历的门槛。虽然很有挑战,但一旦过了这个门槛你就会发现你是市场中的TOP5%.
所以我们设计了这样的一门课程,目的就是一个:让你有机会成为市场中的TOP5%。在课程中,我们将由浅入深的讲解Transformer在CV领域的模型原理、实现方法以及应用技巧等。学习过程中,可以通过企业实战项目,拓展思路,融会贯通,从而真正提高自己解决问题能力。
-
全面的内容讲解:涵盖当今应用和科研领域最热门的Transformer,包括10+Transformer模型串讲+应用案例。
-
深入的技术剖析:深入剖析Transformer与框架技术细节及各模块所涵盖最前沿模型原理技术。
-
企业实战项目:包含图像识别、目标检测,在应用中提升学生的理论和实践能力。
-
大牛级导师团队:
每个模块均由各自领域内多年一线从业经验科学家或科研学者、工程师讲授,并配有背景优秀经验丰富的助教,致力于带来最优质的学习体验。
▶全面掌握Transformer的知识,灵活应用在自己工作中
▶能够了解Transformer模型框架的实现方式,并熟练掌握其关键技术与方法
▶深入理解前沿的Transformer技术,拓宽工作和研究的技术视野
▶短期内对一个领域有全面且系统的认识,大大节省学习时间
对课程有意向的同学
扫描二维码咨询
下面对CV部分的内容详细做了介绍,感兴趣的朋友们可以来咨询更多。
课程内容涵盖Bert/ViT/SegFormer/DETR/UP-DETR/ TimeSformer/ DeiT/Mobile-Transformer/Efficient Transformer/SwinTransformer/Point
Transformer/MTTR/MMT/Uniformer等10余个模型的讲解。
学员使用Transformer模型,练习CV领域应用最广泛的图像识别和目标检测任务。
课程内容经过前期数百小时的打磨设计,保证内容和项目节点设置合理,真正做到学有所得。
顺利完课后,优秀学员可获得字节、阿里、腾讯、美团等各互联网大厂,及商汤、旷视等AI独角兽公司的合作内推面试机会。
主题:NLP 中Transformer/Bert 知识梳理讲解
本节课将带领大家回顾NLP领域中Transformer/Bert技术。以此深入了解Transformer/Bert技术细节,算法优势。方便学生进一步学习Transformer 技术在其他领域的应用。
-
NLP中Transformer中Self-Attention 机制、并行化原理等。
-
主题:Transformer 在图像分类、语义分割中的应用: ViT与SegFormer技术探究
基于第一节课的内容,进一步研究如何将Transformer思想迁移到两个计算机视觉中分类问题的应用: 图像分类,图像语义分割。以两个经典结构ViT, SegFormer为例,让学生体会如何将Transformer应用到视觉领域的思想。
-
如何将Transformer设计思想应用到图像分类,语义分割问题中。
主题:Transformer在目标检测中的应用: DETR, UP-DETR技术探究
本节课将进一步学习如何将Transformer技术应用到目标检测任务重。特别是如何设计Transformer网络结构让神经网络能够同时学习到目标的类别信息与位置信息。
-
深入理解Transformer 应用到object detection的设计思想。l
-
-
主题:Transformer 在视频Video理解中的应用: TimeSformer 技术探究
本节课将进一步学习如何将Transformer技术应用到视频理解应用中,让Transformer能够同时学习时序上空间上的相关性。以TimeSformer为例,让学生能够深刻体会其中设计思想。
-
将Transformer设计思想扩展到时序空间上相关性建模问题上应该注意的问题
主题:Efficient Transformer 设计探讨:DeiT, Mobile-Transformer技术探究
高效的Transformer一直是研究者孜孜不倦的追求目标。这次课程将讨论如何设计高效的Transformer 网络结构。本节课将以DeiT, Mobile-Transformer为例,深入学习高效设计网络过程中需要注意的事项。
-
Efficient Transformer设计中需要注意的问题,以及可以优化Transformer角度的探讨
主题:经典Transformer网络结构学习: SwinTransformer 模型家族学习
本次课程将以SwinTransformer 模型为例,系统性学习SwinTransformer以及其变种模型。目的是让学生能够进一步体会将Transformer应用到视觉任务的网络设计过程中需要注意的问题,有哪些巧妙的思想以及如何通过合理的设计做到并行计算。
-
-
SwinTransformer设计思想。思考需要设计Transformer解决新的问题时需要注意的问题
主题:Transformer in Point Cloud
本节课将跟大家分享3D Point Cloud中的Transformer应用。根据3D Point Cloud数据特点,我们将深入探讨如何设计合适的Transformer网络来处理海量、无结构的点云数据。同时如何进一步修改Transformer结构如何对点云进行分割,聚类等任务。
-
探讨设计Transformer处理点云数据时需要注意的事项
-
本节课我们将学习multi-modality 中Transformer设计问题。Transformer 在不同的领域得到了很好的应用。最近的工作在探究如何设计合适的Transformer结构处理多模态的数据。我们将以MTTR, MMT, Uniformer等相关Transformer为例子做讲解。
-
探究设计Transformer处理multi-modal 数据时需要注意的问题
-
如何设计合适的Transformer来处理multi-modal相关问题:MTTR, MMT, Uniformer
项目内容描述:
作为Transformer在视觉领域的一个经典应用案例,ViT模型第一次将NLP领域中Transformer思想应用到图像领域,为后续的一系列Transformer in Vision 设计工作都提供了很好的思路启发。追根溯源,我们将以ViT模型做图像分类任务为例,开启一段如何将Transformer思想应用到视觉领域之旅。
Multi-label/multi-class classification
-
首先让学生自己动手实现ViT模型,在数据集上测试结果。然后根据官方的实现做对比,如果差异较大需要自己查找原因。
-
掌握如何将Transformer中token, self-attention 思想应用到图像领域。
触类旁通,希望学生能够在深刻理解的基础上,能够学生将Transformer思想用到其他相关问题中去。
-
掌握ViT的训练方法,让学生跑完这个pipeline。从数据准备,模型训练,参数调节,到模型测试,指标计算等。
项目二:基于SwinTransformer 模型的图像分类,目标检测任务
项目内容描述:
我们在上一个项目中学习了ViT模型,一个成功将Transformer应用到视觉分类问题的视觉Transformer模型。但是ViT模型的设计还是比较单一,存在一些不足。尤其是对图像中存在的问题,例如尺度变换问题没有很好的解决,并且没有考虑到效率问题。在本项目中,我们将学习另一个进阶版的视觉Transformer模型: SwinTransformer模型。
Forward-Backward Propagation
-
学生自己实现SwinTransformer代码(也可参照官方实现),并且参照官方实现优化自己的实现,如果实验效果差异较大,学生需要查找原因。
-
体会用SwinTransformer来做目标检测的思想。
-
掌握如何从代码角度优化实现SwinTransformer的self-attention机制从局部扩展到全局。
-
学生掌握如何将Transformer思想应用到自己工作或者学习中的实际问题中去。
对课程有意向的同学
扫描二维码咨询
-
-
对于Transformer或联邦学习有浓厚兴趣,希望进行实践
先后在CVPR, ICML, AAAI, ICRA等国际顶会及期刊发表多篇论文
14年人工智能, 数字图像处理和推荐系统领域研究和项目经验
曾任独角兽金科集团首席数据科学家、美国亚马逊和高盛的高级工程师
先后在AAAI、KDD、AISTATS、CHI等国际会议上发表过15篇以上论文
对课程有意向的同学
扫描二维码咨询