本期将为大家介绍阿里巴巴达摩院 XR 实验室「计算机视觉研究型实习生」和城市大脑实验室 - 基础视觉智能团队「视觉生成方向学术实习生」(硕博)的相关信息。
作为专业的全球人工智能信息服务平台,机器之心不仅可以提供前沿的科研动态,还能帮你找到合适的工作或进修的机会。
本次的实习生招聘需求来自阿里巴巴达摩院 XR 实验室和城市大脑实验室 - 基础视觉智能团队,2023 届的小伙伴千万不要错过。
阿里巴巴达摩院 XR 实验室,致力于探索新一代移动计算平台,包括 VR/AR 眼镜以及基于 VR/AR 眼镜的新一代移动互联网应用技术,推动显示、人机交互技术的历史性革命。实验室主要有 VR/AR 眼镜、开发者平台及上层应用软件,坚持集硬件、系统、软件和内容为一体的完整生态化战略。
实验室将自研三维扫描设备、AR & VR 眼镜等硬件,结合 XR 实验室领先的三维建模、地图定位、实时渲染、人机交互等算法能力,打造有丰富 API 及 SDK 的开发者平台,为终端用户提供优质的内容和沉浸式体验。
小组在视觉理解、生成、交互、姿态预测、虚拟人、手语翻译等方向深耕多年,在阿里经济体内外众多场景落地,CVPR/ICCV/ECCV/SIGGRAPH/SIGGRAPH Asia/NIPS/ICML/ICLR/KDD/AAAI/IJCAI 等顶会发表多篇文
章,其中最近在 C
VPR 2022 发表三篇文章。
团队曾获得 ICCV 2019 COCO detection 实例分割冠军、CVPR 2020 DAVIS 视频分割冠军、CVPR 2021 FVC 视频会议人像分割竞赛冠军、CVPR 2021 ScanNet 场景分类亚军以及 CVPR2022 Epic-kitchen 动作检测冠军。
此次,阿里巴巴达摩院 XR 实验室招聘计算机视觉研究型实习生,工作地点为
北京 / 杭州。
招聘方向:
3D 手势估计(hand pose estimation)
-
在姿态估计相关算法上有过深入研究,在相关应用上有上手经验;
-
掌握机器学习和深度学习基础知识,熟悉 PyTorch、TensorFlow 等至少一种深度学习框架,熟悉常用的 CV 主流网络模型;
-
有相关竞赛经验者,或在相关方向知名国际会议发表过论文,对前沿技术有浓厚兴趣;
-
-
-
申请方式:shenfei.llj@alibaba-inc.com
达摩院城市大脑实验室 - 基础视觉智能团队,长期致力于基于多模态的视觉生成技术的研究和落地。团队主要研究方向包括图像视频生成、Diffusion、GAN 等生成模型理论研究,基于生成模型的视觉任务统一框架研究,大模型分布式训练加速等。团队在相关领域有比较深的积累,在 NeurIPS、ICML、CVPR 等顶会上发表论文 10 多篇。
目前我们的 RI(Research Intern)同学均来自海内外知名高校或者实验室,因此在这里大家也可以和不同技术方向的优秀同学共同交流共同进步。我们有顶级会议论文发表经验丰富的一线 mentor 指导,同时具有充足的计算资源和数据资源。欢迎数学基础知识扎实、有进取心、希望做出有世界影响力算法的同学申请,实习表现优秀的同学具有转正机会,期待大家的加入。
此次,城市大脑实验室 - 基础视觉智能团队招聘计算机视觉研究型实习生,工作地点北京 / 杭州。
生成算法在学术、工业界都受到极大的关注。在学术上,OpenAI 的 DALL-E 和 DALL-E2 系列、英伟达 GauGAN、谷歌的 Imagen 等算法展现了生成模型在创意图像生成、编辑上的强大能力;在工业界,生成模型在视觉增强、风格转换、时尚设计等领域都有广泛的探索和应用。
我们将会一起全方位开展基于 diffusion model 的研究方向,以及基于 StyleGAN 的普适性生成器改进,对基础生成模型(如 GAN、VAE、Autoregressive models、Diffusion Models)研究其优缺点,并提出改进、优化、创新算法,解决目前生成算法的生成质量、多样性、可控性、采样效率等问题。另外我们也会和多模态表示学习结合,来研究可操控、易编辑的组合性生成器,来提升生成模型的实用性。同时我们还将一起致力于百亿、千亿参数量大模型的训练与落地应用。
-
目标对象:海内外知名大学在读硕博,2023届至2025届的毕业生,可实习时长半年以上;
-
-
-
-
对阿里的业务场景具有浓厚兴趣;有激情,责任心强,具备良好的团队合作、沟通能力。
-
邮箱:yingya.zyy@alibaba-inc.com
-
邮箱主题 / 简历命名格式:姓名 - 电话 - 学术实习生 - 机器之心
感兴趣的小伙伴,欢迎加入到阿里巴巴达摩院 XR 实验室和城市大脑实验室 - 基础视觉智能团队的实习生行列。
这是机器之心招聘栏目,对接读者与有需求的高校实验室与企业。对招聘感兴趣的机构请联系:liyazhou@jiqizhixin.com。