声明:本文转载自 中国中文信息学会 公众号
编者按:CCL 2021讲习班将于2021年8月13日在呼和浩特举行,报告包含预训练语言模型、动态神经网络、跨视觉语言模态的联合语义建模和推理、情感分析与观点挖掘专题。
讲习班报告1
讲者:赵鑫
题目:大规模预训练语言模型研究进展回顾
时间:2021年8月13日09:00-10:30
摘要:大规模预训练语言模型已经成为当前自然语言处理领域最重要的研究方向之一,有效提升了多种NLP任务的最好效果。本次报告将对最近几年大规模预训练语言模型的研究进展进行简要梳理和回顾,主要报告内容集中在以下的几个方面。(一)模型架构:大规模预训练语言模型的主流架构和设计思路;(二)学习方法:大规模预训练语言模型的训练、学习以及优化策略;(三)使用范式:大规模预训练语言模型的通用任务解决方法以及微调模式;(四)相关应用:将选取若干基于大规模预训练语言模型的相关应用进行介绍。
简介:赵鑫,现为中国人民大学高瓴人工智能学院长聘副教授。2014年7月于北京大学获得博士学位,随后进入中国人民大学工作至今。研究领域为信息检索与自然语言处理,共计发表论文80余篇。荣获2020年吴文俊人工智能优秀青年奖、ECIR’21时间检验奖(Test of Time Award)等,入选中国科协青年人才托举工程、北京智源青年科学家。
讲习班报告2
讲者:黄高
题目:动态深度神经网络
时间:2021年8月13日10:30-12:00
摘要:深度神经网络在诸多领域得到了成功应用,但深度模型所需的巨大计算开销仍制了其可用性。本报告将介绍一类在推理过程中能够根据输入的变化改变自身结构的自适应神经网络模型。相较于当前主流的静态深度模型,动态网络能够针对输入的变化相应地调整自身的深度、宽度或者参数值等,实现计算量的“按需分配”,进而提升网络的效率,降低系统功耗。报告将介绍几类典型的样本自适应动态网络和时空自适应动态网络,并讨论现有方法的局限以及未来发展前景。
简介:黄高,清华大学自动化系助理教授,博士生导师。2015年获清华大学博士学位,2015年至2018年在美国康奈尔大学计算机系从事博士后科研工作。主要研究领域为深度学习和计算机视觉,提出了主流卷积网络模型DenseNet。目前在NeurIPS,ICML,CVPR等国际顶级会议及IEEE多个汇刊共计发表学术论文50余篇,被引20000余次。获CVPR最佳论文奖、达摩院青橙奖、世界人工智能大会SAIL先锋奖、中国自动化学会优秀博士学位论文、全国百篇最具影响国际学术论文、中国人工智能学会自然科学一等奖和吴文俊优秀青年奖等荣誉和基金委优秀青年基金资助。
讲习班报告3
讲习班报告4
讲者:夏睿
题目:情感分析与观点挖掘:回顾与展望
时间:2021年8月13日15:30-17:00
摘要:报告分为三个部分。第一部分:回顾情感分析和观点挖掘领域的研究历史,从任务类型、分析粒度两个角度,介绍文档、句子、词语、属性级情感分析中的代表任务和经典方法;第二部分:探讨情感分析和观点挖掘研究中的两个特殊问题:情感极性转移和领域适应。分析这两方面问题的意义、研究进展、代表性方法;第三部分:交流近几年情感分析和观点挖掘领域的研究热点,以情绪分析与原因抽取、细粒度多要素观点抽取为例,介绍其与传统任务的区别和最新的研究成果,并对未来工作方向进行展望。
简介:夏睿,南京理工大学计算机学院教授、博导。研究领域为自然语言处理、情感分析与观点挖掘。在自然语言处理、人工智能、数据挖掘领域的国内外重要期刊和会议发表论文50余篇、出版学术专著2部,曾获国际计算语言学协会年会ACL2019杰出论文奖、中国中文信息学会青年创新奖一等奖等荣誉。