2021年1月16日至17日,CSIG-机器感知与智能论坛在清华科技园赛尔大厦2层智源中心召开。本次论坛由中国图象图形学学会、北京大学机器感知与智能教育部重点实验室共同主办,CSIG-机器视觉专委会、北京智源人工智能研究院联合承办。论坛邀请了十五位来自北京高校和科研院所的一流专家学者作学术报告,就机器学习、机器感知和认知机理领域相关问题展开深入交流与讨论。论坛作为北京大学机器感知与智能教育部重点实验室的年会活动,由林宙辰教授和王奕森助理教授共同主持,以受邀嘉宾现场参会和一般听众线上参会的方式举办。
图1 活动现场
在16日上午的机器学习论坛上,北京大学的王立威教授报告了过参数神经网络在宽度足够宽的情况下,梯度下降算法可以线性收敛到全局最优等理论成果,并提出了收敛更快但计算开销与梯度下降算法几乎一样的二阶优化算法;中科院计算所的程学旗研究员介绍了其团队在新一代大数据智能分析引擎系统上的研究,提出从数据到信息、信息到知识、知识到决策的大数据分析的第五范式;北京大学的宋国杰副教授分享了其将网络的子图结构模式信息有机融入图神经网络的表征学习之中的研究成果;清华大学的刘华平教授做了智能机器人的精彩报告,指出多模态主动感知技术才能使得机器人适应环境的不确定性与开放性;北京大学的王奕森助理教授从机器学习脆弱性的角度介绍了构建鲁棒可信的机器学习模型的理论和方法。
在16日下午的机器感知论坛上,北京大学的查红彬教授针对3D视觉领域的热点问题SLAM,提出在线自适应的自监督学习方法来实现视觉系统的环境自适应性;中科院自动化所蒋田仔研究员展示了其团队绘制出的全新的人类脑图谱——脑网络组图谱,及在脑疾病早期预测和精准治疗中的应用;北京大学的田永鸿教授结合其团队的近期研究进展,探讨了当下开放环境下的小样本学习的可行道路;清华大学的温江涛教授用大量的实际案例介绍了其团队在超高清8K视频中的实践探索;北京大学的吴玺宏教授分享了其团队基于发声姿态的在线自适应学习在语言识别与合成中的应用,为小语种和方言的语音识别、个性化语音合成等提供了新的解决思路。
图4 机器感知论坛嘉宾报告
(从左到右依次是查红彬、蒋田仔、田永鸿、温江涛、吴玺宏)
在机器感知圆桌讨论环节中,北京大学林宙辰教授、吴玺宏教授、田永鸿教授、施柏鑫助理教授,清华大学温江涛教授、鲁继文副教授,及中科院计算所山世光研究员,一起针对能否获得面向感知问题的大规模预训练模型以及该模型能否解决大部分的感知问题进行了激烈的探讨。
图5热烈的圆桌讨论环节
(从左到右依次是山世光、施柏鑫、鲁继文、吴玺宏、林宙辰、温江涛、田永鸿)
在17日上午的认知机理论坛上,北京大学的方方教授探讨了知觉学习的神经机制及功能,指出与伴侣一起训练(即二元知觉学习)和10 Hz经颅交流电刺激(tACS)可以加快和增强知觉学习;北京师范大学李武教授做了学习诱导的视觉皮层的变化的精彩报告,指出在杂乱的背景下对目标检测任务进行进一步的训练可以诱导初级视觉皮层(区域V1)发生适应性变化,使得后续处理阶段更高效更省力;北京大学唐世明教授在报告中系统地研究了视皮层神经元编码机制,同时,通过树突成像、光遗传等神经线路研究技术,精确地解析视觉皮层复杂的神经线路,为大脑视觉认知信息处理的理解提供了基础;中科院心理研究所蒋毅研究员分享了其在生物运动信息的视觉加工方面的研究成果,指出生物运动知觉并非单一现象, 而是一种具有不同加工机制的多水平现象;北京大学的罗欢研究员的报告揭示了人类工作记忆的动态神经机制及因果证据,为类脑记忆功能提供了人脑发现的启发和思路。
图6 认知机理论坛嘉宾报告
(从左到右依次是方方、李武、唐世明、蒋毅、罗欢)
此次论坛历时一天半,采取线上线下相结合的方式。与会的十多位国内外知名专家学者作了精彩的报告,互相交流最新科研进展及见解,并与现场嘉宾面对面进行了热烈的学术讨论。线上有千余名观众观看了直播并参与了互动,最高人气值超过5000。
图7 现场观众提问
本次论坛聚焦机器感知与智能领域前沿技术,展示机器感知与智能领域最新科研成果,加强各方学者的学术交流与合作,为与会学者提供了深入学习的平台,对于开拓青年研究学者的视野、促进机器感知与智能领域的交叉研究具有重要意义。