成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
复旦大学黄萱菁:自然语言处理中的可理解分析
2020 年 11 月 11 日
学术头条
2020年11月6日,“第五届语言与智能高峰论坛”以线上直播的形式召开。本次论坛由中国中文信息学会和中国计算机学会主办,邀请到了周明、黄萱菁等多位国内外学界和业界翘楚作报告。
首届“语言与智能高峰论坛”于 2016 年在北京举行,每年举行一次,至今已成功举办四届。社会对于代表着“未来”、“高科技”、“前沿领域”的人工智能一直有着一个期望——“让机器理解人类语言”,对于这个行业的研究现状与未来趋势也有着诸多好奇。
“语言与智能高峰论坛”旨在向社会公众介绍语言与智能的前沿动态和创新成果,推动我国相关领域快速发展。论坛邀请国内外资深学者担任特邀讲者,设立青年科学家论坛、圆桌讨论和技术评测论坛,就语言与智能的前沿课题进行思想碰撞与深度交流。
复旦大学的黄萱菁教授针对深度学习推广中的可理解性和可解释性问题做了报告。以下为学术君根据演讲实录整理的文稿,略有删减——
自然语言处理中的可理解分析
自然语言处理中的可理解性是指我们希望对学习系统有更多的了解,主要包括三点内容:一是理解模型部件内部的功能属性;二是解释其行为的预决策行为;三是对系统进行诊断,判断其优缺点。
为什么要做可理解分析呢?
黄萱菁教授指出,深度学习把我们从特征挖掘时代带到了结构工程时代,但是也带来了新的问题——“如何选择适配特殊任务特殊数据集的结构?”可理解分析可以增加模型的可信赖性;可以判断模型是否过拟合;可以指出模型不足,便于继续优化。正是这些作用,所以我们需要继续优化运用它。
这两张图展示的是,涉及到 interpret ability,explanation这两个关键词,过去若干年被录用的会议论文的数目的发表趋势。x轴代表年份,y轴代表该年被录用的论文的数量。可以看到,最近两年的研究都呈现出了明显的一个增长趋势。可理解分析这个方向最近两年还是有较多人关注到的。
对于自己近期的研究工作,黄萱菁教授说,主要是两个部分:第一部分是理解模型部件的功能属性,另外一个部分是关于模型诊断。在理解模型部件的功能属性方面,黄教授介绍了以下三个方面的工作:
一、LSTM架构的认知解释。希望了解两个问题,一是“人阅读和机器阅读时的神经元活动是否可以相互预测?”,二是“LSTM架构在认知角度是否合理?”。
二、序列模型的认识。这里的研究动机主要是两个,一是“主流的几种基于神经网络模型的词表示,究竟编码了哪些语言学特征?”二是“神经元的行为模式是否可解释?”。
三、抽取式摘要中各个组件的作用分析,也就是不同配置的模型到底差异在哪里。
黄萱菁教授还在报告中介绍了今年自己团队已发表的鲁棒性分析的相关工作。
第一个是关于对抗分析的,神经网络容易受到对抗样本的干扰,所以在实地实际落地使用的时候会容易一些问题。所谓的对抗样本指的是对输入做微小的难以察觉的扰动,导致机器学习模型预测错误的样本。这里需要注意的是语义的一致性以及冠词介词这类功能词不进行改变,避免引起句法歧义。
第二个是依存句法任务的攻击性能。基于依存句法对抗样本探究了句法任务模型的鲁棒性,通过利用对抗样本,提高了模型的鲁棒性。
第三个是基于情感分析(ABSA)的方面。黄萱菁教授的团队提出了一种简单有效的数据生成方法来测试模型的鲁棒性,构建了ARTS测试数据集来评测模型鲁棒性;继而提出了新的评测指标Aspect Robustness Score;并且通过探测9个现有的ABSA模型,提出了提升现有模型的鲁棒性的方法。
在报告的最后,黄萱菁教授对于可理解性分析的未来作出了研究展望;希望有一个统一的指标与数据集能够对可理解、可解释模型进行评价,并且有了这种统一评价之后,能够有一个通用的可交互的可解释工具,进行系统化平台化的分析。
另外,分析的目的是真正是改进现有系统的性能,帮助理解更好系统的输出,所以希望能够探索更多应用场景,通过可理解分析的结果去改变现有系统的性能。
黄萱菁个人介绍
黄萱菁,复旦大学计算机科学技术学院教授、博士生导师,主要从事自然语言处理、信息检索和社会媒体分析研究。兼任中国中文信息学会常务理事、社会媒体专委会副主任,中国计算机学会自然语言处理专委会副主任、学术工作委员会委员。在高水平国际学术期刊和会议上发表了百余篇论文,负责的多个科研项目受到国家自然科学基金、科技部、教育部、上海市科委的支持。入选由清华—中国工程院知识智能联合研究中心和清华大学人工智能研究院联合发布的“2020年度人工智能全球女性”,“2020年度AI 2000人工智能全球最具影响力提名学者”及“福布斯中国2020科技女性榜”。
参考资料:
http://conference.cipsc.org.cn/lis2020/reports/huangxuanjing.html
点击
阅读原文
,查看更多精彩!
喜欢本篇内容,请
分享、点赞、
在看
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
黄萱菁
关注
0
黄萱菁,女,1972年出生于浙江平阳,1989~1998年就读于复旦大学计算机系,先后获学士、博士学位。1998年留校任教,2006年晋升为教授,博士生导师。2008~2009年在美国麻省大学智能信息检索中心从事访问学者研究。现为中国青年科技工作者协会会员,中国中文信息学会理事。
【邱锡鹏老师CIPSATT2020教程】自然语言处理中的预训练模型,149页ppt
专知会员服务
103+阅读 · 2020年11月10日
【复旦大学邱锡鹏教授】自然语言处理中的自注意力模型,53页ppt
专知会员服务
127+阅读 · 2020年9月2日
【复旦大学刘鹏飞博士论文】自然语言处理中的神经表示学习,153页pdf
专知会员服务
106+阅读 · 2020年9月1日
深度学习自然语言处理进展综述论文
专知会员服务
199+阅读 · 2020年3月6日
【综述】金融领域中的深度学习,附52页论文下载
专知会员服务
164+阅读 · 2020年2月27日
【CAAI 2019】自然语言与理解,苏州大学| 周国栋教授
专知会员服务
62+阅读 · 2019年12月1日
【CCL 2019】2019信息检索趋势,山东大学教授任昭春博士
专知会员服务
29+阅读 · 2019年11月12日
问答与对话-技术与系统之基于深度学习的机器阅读理解【崔一鸣】第十四届中国中文信息学会暑期学校暨中国中文信息学会《前沿科技讲习班》ATT第14期
专知会员服务
46+阅读 · 2019年10月23日
图卷积神经网络在计算金融等交叉学科领域的应用研究,复旦大学魏忠钰 副教授,第八届全国社会媒体处理大会SMP2019
专知会员服务
40+阅读 · 2019年10月21日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
第四波!ACL 2020 清华大学 THUNLP 系列解读
AI科技评论
8+阅读 · 2020年5月7日
CNCC技术论坛 | 知识图谱引领认知智能+
中国计算机学会
22+阅读 · 2019年9月15日
【自然语言处理】清华刘知远55页自然语言处理PPT
产业智能官
19+阅读 · 2019年8月23日
模式识别国家重点实验室自然语言处理研究组喜获中国中文信息学会多项大奖
专知
4+阅读 · 2018年11月15日
直播 | 自然语言处理中的多任务学习 & 复旦大学NLP实验室介绍
AI科技评论
6+阅读 · 2018年10月22日
【知识图谱】肖仰华:SIGIR 2018、WWW2018知识图谱研究综述
产业智能官
11+阅读 · 2018年8月21日
35页自然语言处理深度学习综述,带你纵览NLP知识全貌
专知
88+阅读 · 2018年8月1日
实践入门NLP:基于深度学习的自然语言处理
雷锋网
10+阅读 · 2018年1月22日
微软亚院副院长周明:自然语言处理的历史与未来
专知
5+阅读 · 2017年11月21日
清华大学黄民烈博士:如何让聊天机器人理解人类情感?
AI科技评论
4+阅读 · 2017年9月23日
Evaluating Input Perturbation Methods for Interpreting CNNs and Saliency Map Comparison
Arxiv
0+阅读 · 2021年1月26日
On the Evolution of Word Order
Arxiv
0+阅读 · 2021年1月23日
Formal Definitions of Memory Consistency Models
Arxiv
0+阅读 · 2021年1月23日
A survey of joint intent detection and slot-filling models in natural language understanding
Arxiv
0+阅读 · 2021年1月22日
Interpretable Sequence Classification via Discrete Optimization
Arxiv
8+阅读 · 2020年10月6日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Dynamic Self-Attention : Computing Attention over Words Dynamically for Sentence Embedding
Arxiv
8+阅读 · 2018年8月22日
LARNN: Linear Attention Recurrent Neural Network
Arxiv
5+阅读 · 2018年8月16日
Psychological State in Text: A Limitation of Sentiment Analysis
Arxiv
8+阅读 · 2018年6月3日
Natural Language Processing: State of The Art, Current Trends and Challenges
Arxiv
4+阅读 · 2017年8月17日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
黄萱菁
自然语言处理
复旦大学
语言处理
可理解性
中国中文信息学会
相关VIP内容
【邱锡鹏老师CIPSATT2020教程】自然语言处理中的预训练模型,149页ppt
专知会员服务
103+阅读 · 2020年11月10日
【复旦大学邱锡鹏教授】自然语言处理中的自注意力模型,53页ppt
专知会员服务
127+阅读 · 2020年9月2日
【复旦大学刘鹏飞博士论文】自然语言处理中的神经表示学习,153页pdf
专知会员服务
106+阅读 · 2020年9月1日
深度学习自然语言处理进展综述论文
专知会员服务
199+阅读 · 2020年3月6日
【综述】金融领域中的深度学习,附52页论文下载
专知会员服务
164+阅读 · 2020年2月27日
【CAAI 2019】自然语言与理解,苏州大学| 周国栋教授
专知会员服务
62+阅读 · 2019年12月1日
【CCL 2019】2019信息检索趋势,山东大学教授任昭春博士
专知会员服务
29+阅读 · 2019年11月12日
问答与对话-技术与系统之基于深度学习的机器阅读理解【崔一鸣】第十四届中国中文信息学会暑期学校暨中国中文信息学会《前沿科技讲习班》ATT第14期
专知会员服务
46+阅读 · 2019年10月23日
图卷积神经网络在计算金融等交叉学科领域的应用研究,复旦大学魏忠钰 副教授,第八届全国社会媒体处理大会SMP2019
专知会员服务
40+阅读 · 2019年10月21日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
热门VIP内容
开通专知VIP会员 享更多权益服务
通过“武器交战区”开展活动:CJADC2 不仅仅是杀伤链
《探索未来作战环境:2035-50 年》最新报告
《云计算与国际安全:风险、机遇和治理挑战》最新35页报告
《搜救系统中的人-多无人机互动》74页
相关资讯
第四波!ACL 2020 清华大学 THUNLP 系列解读
AI科技评论
8+阅读 · 2020年5月7日
CNCC技术论坛 | 知识图谱引领认知智能+
中国计算机学会
22+阅读 · 2019年9月15日
【自然语言处理】清华刘知远55页自然语言处理PPT
产业智能官
19+阅读 · 2019年8月23日
模式识别国家重点实验室自然语言处理研究组喜获中国中文信息学会多项大奖
专知
4+阅读 · 2018年11月15日
直播 | 自然语言处理中的多任务学习 & 复旦大学NLP实验室介绍
AI科技评论
6+阅读 · 2018年10月22日
【知识图谱】肖仰华:SIGIR 2018、WWW2018知识图谱研究综述
产业智能官
11+阅读 · 2018年8月21日
35页自然语言处理深度学习综述,带你纵览NLP知识全貌
专知
88+阅读 · 2018年8月1日
实践入门NLP:基于深度学习的自然语言处理
雷锋网
10+阅读 · 2018年1月22日
微软亚院副院长周明:自然语言处理的历史与未来
专知
5+阅读 · 2017年11月21日
清华大学黄民烈博士:如何让聊天机器人理解人类情感?
AI科技评论
4+阅读 · 2017年9月23日
相关论文
Evaluating Input Perturbation Methods for Interpreting CNNs and Saliency Map Comparison
Arxiv
0+阅读 · 2021年1月26日
On the Evolution of Word Order
Arxiv
0+阅读 · 2021年1月23日
Formal Definitions of Memory Consistency Models
Arxiv
0+阅读 · 2021年1月23日
A survey of joint intent detection and slot-filling models in natural language understanding
Arxiv
0+阅读 · 2021年1月22日
Interpretable Sequence Classification via Discrete Optimization
Arxiv
8+阅读 · 2020年10月6日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Dynamic Self-Attention : Computing Attention over Words Dynamically for Sentence Embedding
Arxiv
8+阅读 · 2018年8月22日
LARNN: Linear Attention Recurrent Neural Network
Arxiv
5+阅读 · 2018年8月16日
Psychological State in Text: A Limitation of Sentiment Analysis
Arxiv
8+阅读 · 2018年6月3日
Natural Language Processing: State of The Art, Current Trends and Challenges
Arxiv
4+阅读 · 2017年8月17日
大家都在搜
palantir
洛克菲勒
大规模语言模型
CMU博士论文
扩散模型
自主可控
医院管理
注意力机制
人工智能 科普
GANLab 将GA
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top