清华叉院招2023年博士生、研究助理,含强化学习、机器⼈学、计算机视觉⽅向

2022 年 3 月 3 日 机器之心
新一年博士招生正式启动!本期我们将为大家介绍 2023 年清华交叉信息研究院博⼠招⽣及研究助理招募信息。
作为专业的全球人工智能信息服务平台,机器之心的读者中有大量活跃于人工智能学术领域的顶级学者,也有许多正在攻读 AI 方向的学生。

之前,机器之心发布了多篇与招收硕士 / 博士 / 博士后相关的文章,为广大读者传递了海内外招生的教授与实验室信息,引起了不错的反响。如今,又到了博士招生的季节,我们整理了海内外多所实验室的招生信息。

本期的招生信息来自即将加入清华交叉信息学院任助理教授的许华哲博士,他计划招募 2023 年博⼠生及研究助理(强化学习、机器⼈学、计算机视觉⽅向)。以下是他的个人介绍、招生要求等信息。

写在前面的话

⼤家好,我是许华哲 (http://hxu.rocks/ (http://hxu.rocks/)), 博⼠毕业于加州⼤学伯克利分校,今年夏天将从斯坦福⼤学博⼠后出站,加⼊清华⼤学交叉信息研究院担任助理教授。欢迎对⼈⼯智能,尤其是深度强化学习、 机器⼈学和计算机视觉⽅向感兴趣的同学与我联系!


近年来,⼈⼯智能取得了世界瞩⽬的成就, 从 AlphaGo 击败了李世⽯,到随处可⻅的⽆⼈驾驶路测。但这代表我们达到真正的通⽤⼈⼯智能了吗?⽬前搭积⽊的机器⼈很容易在环境稍有改变的时候失去⼯作能⼒,想打开抽屉取物体的智能体也需要成千上万的样本来学习,⽽这样的任务对⼈来说、即使⼀个⼏岁的⼩朋友也很简单。这是因为⼈类能够:⾸先通过⾝体的传感器去感知周围世界,然后利⽤⼤脑去处理信号创建了我们对世界的认 知,再基于这⼀认知做出决策。⽽我的科研兴趣关注的正是: 如何使得⼀个智能体利⽤不同的传感器感知世界,如何构建世界模型,然后像⼈类⼀样去⾼效决策和控制。
 
研究方

朝着我们对通⽤⼈⼯智能的追求, 我渴望和有理想的同学合作, 包括但不限于以下⽅向:

  • 深度强化学习 (Deep Reinforcement Learning):

  • 基于模型的深度强化学习 (model-based reinforcement learning),
  • 基于视觉的强化学习 (visual reinforcement learning),
  • 多智能体强化学习(multi-agent reinforcement learning)
  • 可泛化的强化学习 (generalizable reinforcement learning)等;

  • 机器人学 (Robotics):

  • 机械⼿抓取 (grasping),
  • 物体操作 (object manipulation),
  • 柔性物体操作 (deformable object manipulation),
  • 多机器⼈协同操作 (multi-robot collaboration),
  • 四⾜机器⼈ (quadruped robot) 等;

  • 计算机视觉、触觉(Computer Vision & Tactile Sensing):


  • 视频预测模型(video prediction),
  • 视频理解(video understanding) ,
  • 触觉信号处理(tactile sensing) 等。

我们的⽬标是从事最前沿的科学研究, 并发表在顶级的⼈⼯智能会议例如 Neurips/ICLR/ICML/AAAI/IJCAI,顶级机器⼈学会议如 RSS/CORL/ICRA/IROS,以及顶级视觉会议 CVPR/ICCV/ECCV 等。
 
学生培养

组内现有成员均来⾃顶级学府, 包括清华⼤学交叉信息研究院、计算机系、电⼦⼯程系,上海交通⼤学⼈⼯智能班, 美国杜克⼤学等。为了培养未来的顶级⼈⼯智能⼈才, 组内可以为你提供:

  • 思辨的科研氛围。每周组会探讨最有价值最新的科学问题,⿎励同学们在科研观点的碰撞中培养良好的学术品味。
  • 闭门座谈。邀请学术⼤⽜、⾏业佼佼者和优秀的同学进⾏闭门座谈:⽬前已邀请过来⾃于斯坦福、伯克利、⿇省理⼯、卡耐基梅隆、 加州⼤学圣地亚哥分校、多伦多⼤学的准教授、博⼠后、博⼠⽣;Meta ⼈⼯智能研究部门、⾕歌⼤脑的研究科学家;创业公司的联合创始⼈;哈佛⼤学⼈⼯智能和东亚⽂化交叉学科学者来进⾏线上座谈。
  • 深⼊的科研指导。与组内每位学⽣每周⾄少⼀次⼀对⼀会议, 从课题想法的建⽴到算法改进、从实验设计到编程实现全程参与指导,避免 “指⿅为⻢” 式的指导或是单向地⼯作汇报。对不熟悉论⽂写作的低年级学⽣进⾏逐字逐句的修改和帮助,争取与学⽣⼀起做出⾼质量成果。
  • ⾃由的选题空间。与学⽣共同讨论科研题⽬,提供充⾜的科研经费, 尽我所能⽀持学⽣做真正有意义、有深度、有影响⼒的研究。 
  • 活泼的团队氛围。未来我回国后, 预计可以组织⼀起运动(跑步,⽻⽑球, ⽹球, 游泳等), 以及不定时的共同观影, 演出, 展览和吃饭聚会。遵循 work hard, play hard 的想法, 但也尊重个⼈意愿。
  • 给你的未来助⼒。⿎励和⽀持学⽣的求学计划和职业发展:我会与海内外顶级⾼校、⼯业界保持联络对接,助⼒组内本科⽣博⼠申请,博⼠⽣交换,博⼠后申请,毕业实习和⼯作申请。合作过的本科⽣ / 硕⼠⽣⽬前已有 2 ⼈申到⿇省理⼯、2 ⼈申到伯克利、3 ⼈申到卡内基梅隆、1 ⼈申到斯坦福、多⼈申到其他名校或知名国内外企业。
  • 良好的待遇。我会为组内同学争取最好的补贴和科研条件,⿎励论⽂作者参加学术会议,提供充⾜的计算资源和仪器设备。

招生要求

希望你有良好的科研潜⼒和⼯程能⼒:

  • 优异的本科学业成绩,尤其计算机和数学相关课程;

  • 希望你有良好的编程能⼒(python, C++ 等), 如果熟悉 pytorch/linux/github 等⼈⼯智能科研常⽤⼯具、有 ACM/OI 编程竞赛背景更好;

  • 希望你有较好的英⽂写作、阅读、沟通的能⼒!良好的演讲能⼒会是加分项;

  • 如果你曾经有过⼈⼯智能经历,对某个问题有独到的理解或者发表过论⽂,当然是⼀个加分项!


科研是⼀份妙趣横生但却⼗分艰苦的道路。希望你可以⾃我驱动,认真思考并解决问题,关注问题本⾝,有责任⼼地投⼊精⼒和时间去共同完成我们的追求。希望你是⼀个善良的有思想的⼈, 组内的我们不仅仅是师⽣关系, 我们还可以成为相互批判的诤友,共同成⻓的伙伴!

报名流程

  • 博⼠⽣申请者确认有直博资格。

  • 发送 email 到 xuhuazhe12@gmail.com (通常 24 ⼩时内会回复)

  • 邮件标题: 申请类型 - 姓名 - 所在学校。申请类型包括: 直博申请,普博申请,研究助理申请;

  • 邮件内容:姓名、学校和专业,本科成绩和排名(例如 5/278),已经发表或准备发表的论⽂内容, 竞赛 / 奖学⾦获奖情况,编程技能;

  • 邮件附件:本科成绩单, 简历。

  • 博⼠申请者请同时关注并且申请清华⼤学交叉信息研究院优秀⼤学⽣夏令营,截⽌⽇期在五⽉左右。


这是机器之心招聘栏目,对接读者与有需求的高校实验室与企业。对招聘感兴趣的机构请联系:liyazhou@jiqizhixin.com。

登录查看更多
1

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
167+阅读 · 2021年8月3日
【强化学习】深度强化学习初学者指南
专知会员服务
179+阅读 · 2019年12月14日
国家自然科学基金
5+阅读 · 2015年7月12日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年7月12日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员