抢票 | AI未来说学术论坛第16期:NLP前沿技术及产业化专场

2020 年 6 月 11 日 PaperWeekly
























AI已来,而你来不来!?


人工智能论坛如今浩如烟海,有硬货、有干货的讲座却百里挑一。“AI未来说”青年学术论坛第16期如约而至。来自复旦、中科院、哈佛及百度的各位专家和青年才俊,共同阐述自然语言处理领域的最新研究成果。一场专注于青年学者和大学生的AI论坛等你报名,可以快速定位文末报名哦~


“AI未来说·青年学术论坛”系列讲座由中国科学院大学主办,承办单位为中国科学院大学学生会,协办单位为中国科学院计算所研究生会、中科院计算机网络信息中心研究生会、人工智能学院学生会、化学工程学院学生会、公共政策与管理学院学生会、微电子学院学生会、数学与系统科学研究院研究生会,百度为支持单位,读芯术、PaperWeekly为合作自媒体。“AI未来说·青年学术论坛”第16期NLP前沿技术及产业化专场将于2020年6月20日13:00-16:00线上举行



宅在家,也能解锁最前沿的AI论坛?


宅家的日子里,每天面对各式各样的线上直播,你是否日日苦叹,不知如何选择?

别担心! AI未来说为你准备了既优质又实用的线上学术论坛! 一个下午,干货满满! 这次,AI未来说第16期将带领大家专注于了解 NLP前沿技术及产业化 ,一起跳出日常的枯燥学习,领略“学界+业界”最前沿的知识!

特此,我们为大家精心准备了:

· 产学研深度结合的“神仙”阵容(复旦、中科院、哈佛知名学者及青年博士生&百度资深技术大咖)

· 最前沿的“理论+实践”AI内容

· 学习证书认证


论坛将免费向报名成功的学生开放!你将与高校学者、业界技术专家、以及众多关注AI的小伙伴们齐聚线上,一起讨论交流!


还等什么呢?快快报名吧!我们期待您的加入,让我们一起遇见未来,携手并进!


快速锁定文末即可获取报名链接~



活动简介


AI未来说·青年学术论坛”系列论坛自2019年1月19日启动以来,已经成功举办15期,累计吸引上万人报名参加,报名群体遍布全国 30 多个省份地区,境内外13个国家400余所高校和科研院所,论坛由中国工程院李国杰院士坐阵,数十名长江学者、杰青、千人计划、万人计划、重点实验室主任组成学术嘉宾团,以及国内头雁企业嘉宾和优秀博士生组成的多元化分享阵容,吸引了包括学生、领域从业人员、企业管理人员等在内的广泛关注。



活动信息



报名时间:即日起至2020年6月19日中午12:00。


活动时间2020年6月20日13:00 - 16:00。


嘉宾及分享内容



黄萱菁自然语言处理中的表示学习》


黄萱菁,复旦大学计算机科学技术学院教授、博士生导师。1998年于复旦大学获计算机理学博士学位,研究领域为人工智能、自然语言处理、信息检索和社会媒体分析。兼任中国中文信息学会常务理事,社会媒体专委会副主任,中国计算机学会自然语言处理专委会副主任。在SIGIR, IEEE TKDE, ACL, ICML, IJCAI, AAAI, SCIS, CIKM, EMNLP, WSDM和COLING等多个高水平国际学术期刊和会议上发表了近百篇论文,负责的多个科研项目受到国家自然科学基金、科技部、教育部、上海市科委的支持。近年来担任2014年ACM 信息与知识管理会议竞赛主席,2015年ACM 互联网搜索与数据挖掘会议组织者,2015年社会媒体处理大会程序委员会副主席,2016年、2019年全国计算语言学会议程序委员会副主席,2017年国际自然语言处理与中文计算程序委员会主席等学术职务,并入选由清华—中国工程院知识智能联合研究中心和清华大学人工智能研究院联合发布的“2020年度人工智能全球女性”及“2020年度AI 2000人工智能全球最具影响力提名学者”。


报告内容:语言表示学习的目的是构建语言的形式化或数学描述,以便在计算机中表示语言,并能让计算机程序进行自动处理。早期的语言表示方法主要采用符号化的离散表示。近年来,深度神经网络广泛应用于自然语言处理,不仅在文本分类、序列标注、机器翻译和自动问答等许多任务中取得了超越传统统计方法的性能,而且能以端到端的方式进行训练,避免了繁琐的特征工程。该报告将从词语、短语、句子和句对等角度介绍基于神经网络的语言表示学习方法,阐述如何将语言的潜在语法或语义特征分布式地存储在一组神经元中,用稠密、低维、连续的向量来表示,并从模型、学习、解释等层面讨论神经语言表示学习的近期研究趋势。



刘康《低资源环境下的事件知识抽取


刘康,中国科学院自动化研究所模式识别国家重点实验室研究员,博士生导师。研究领域包括信息抽取、网络挖掘、问答系统等,同时也涉及模式识别与机器学习方面的基础研究。在自然语言处理、知识工程等领域国际重要会议和期刊发表论文90余篇,Google Scholar引用6300余次,单篇引用1100余次。曾获COLING2014最佳论文奖、Google Focused Research Award、中国中文信息学会“汉王青年创新一等奖”(2014年)、中国中文信息学会“钱伟长中文信息处理科学技术奖”一等奖(2018年)等多项学术奖励。2016年入选中国科学院青年促进会,2019年入选北京智源人工智能研究院青年科学家。兼任中国中文信息学会青年工作委员会主任、语言与知识计算专业委员会秘书长等学术职务。


报告内容:知识图谱是人工智能和核心基础设施之一,现有知识图谱多关注于以实体为核心的静态知识,缺乏对于以事件为核心的动态知识的刻画和构建。本报告结合研究组近些年的工作,主要介绍低资源环境下的事件知识的抽取基本方法,包括事件识别、事件要素抽取、事件关系挖掘等方面的最新研究进展。



何中军机器翻译——从设想到大规模应用》


何中军,博士,百度人工智能技术委员会主席,从事机器翻译研究与开发十余年,申请专利40余项,研发了全球首个互联网神经网络翻译系统、首个WiFi翻译机、首个语义单元驱动的语音到语音同传系统。曾获国家科技进步二等奖、中国电子学会科技进步一等奖、中国专利银奖、北京市科技进步二等奖、电子学会优秀科技工作者等多项奖励。


报告内容:70多年前,第一台计算机诞生后不久,科学家就提出了利用计算机进行翻译的设想。此后,随着技术不断更迭,算力大幅提升,以及互联网带来的数据井喷式增长,机器翻译质量持续提高。尤其近年来神经网络机器翻译的出现及快速发展,使得机器翻译水平大幅跃升,在人们的生产生活中得到了广泛应用。本报告结合百度机器翻译大规模工业化实践,介绍机器翻译技术进展、主要产品形式及应用,最后对未来发展进行展望。



孙宇百度语义理解技术ERNIE及其应用》


孙宇,百度杰出架构师,百度ERNIE语义理解技术与平台总负责人。从事语义理解领域研究与应用近10年,取得了多项世界领先成果,相关工作广泛应用于百度搜索、百度信息流、小度音箱、智能客服等产品,在AAAI、IJCAI等人工智能顶级国际会议发表多篇高水平学术论文,已授权或公开的国内外专利60余项,荣获中国电子学会科技进步一等奖、中国人工智能学会优秀科技成果奖、百度最高奖及百度骄傲最佳团队等奖项。


报告内容:近年来,预训练技术在自然语言处理领域发展迅速,并获得广泛应用。2019年,百度NLP研发了基于知识增强的语义理解技术ERNIE,创新性地将大数据预训练与多源丰富知识相结合,研发持续学习算法,不断吸收海量文本数据中词汇、结构、语义等方面的新知识,实现模型效果不断进化,在有代表性的中英文16个任务上取得国际上最好的结果。2019年12月,ERNIE在国际权威测试集GLUE评测中首次突破90分,以超过人类3个百分点的水平位居全球第一。2020年3月,在国际权威语义评测SemEval上,ERNIE夺得5项世界冠军。ERNIE广泛落地百度核心业务,取得了显著应用效果。本次报告主要包含百度ERNIE的技术进展、应用情况以及未来发展方向。



邓云天《Cascaded TextGeneration with Markov Transformers》


邓云天,哈佛大学计算机系在读博士生,师从Alexander Rush教授和Stuart Shieber教授。主要研究方向为文本生成。2018年百度奖学金获得者。2018年法国-美国博士交流访问学者。OpenNMT机器翻译平台的主要开发者之一,这个项目获得2017年ACL best demo paper award runner-up。先后在Bloomberg、Facebook人工智能研究院实习,指导老师分别为David Rosenberg、Gideon Mann和Marc'Aurelio Ranzato。


报告内容:在文本生成中,Beam search作为搜索算法的地位几十年来未被撼动。然而beam search是从左到右进行的,难以考虑全局,且不支持并行计算。我们提出一种新的文本生成思路,可以支持并行计算,速度更快,同时可以达到与beam search相当的准确度。我们的思路基于对全局搜索空间的不断过滤,具有和beam search很不一样的特性,由此衍生出新的研究方向。



桂韬《Uncertainty-Aware Sequence Labeling》


桂韬,本科毕业于国防科技大学,现于复旦大学就读博士学位。主要研究方向包括信息抽取、强化学习、社交媒体分析等。博士期间在AAAI、IJCAI、SIGIR、EMNLP、COLING 等自然语言处理和人工智能顶会上发表长篇论文14 篇,其中第一作者 9 篇。2018年获 Coling 领域主席推荐奖(Area ChairFavorites)。2019年获得百度奖学金、IBM 奖学金、国家奖学金、复旦大学优秀学生标兵。


报告内容:序列标注任务一直是自然语言处理中的一项基础任务,其目标是给句子中的每个单词赋予语言学的标签,包括词性标注、命名实体识别等。为了建模序列标签之间的依赖关系,条件随机场被广泛运用于序列标注任务中的标签解码。然而,条件随机场的局部标签依赖特性和低效的维特比解码一直是有待解决的问题。在本次分享中,报告人将介绍如何利用 Two-Stage 框架实现标签并行解码,如何利用贝叶斯网络解决 Two-Stage 解码带来的错误传播问题,以及如何利用 Transformer 建模标签间的长距离依赖关系。



如何报名


报名方式


扫描下方二维码报名:



注意事项


1. 请在报名时认真填写真实有效的信息,方便工作人员审核。


2. 为方便报名,报名系统将会开放至2020年6月19日中午12:00,报名时请注意,报名信息填写完成后,点击提交会进入到报名成功的界面。


3. 记得填写报名信息后,及时添加AI未来说小助手,进入活动讨论群,获取参与活动相关信息&论坛直播入口(一人一码进入直播房间)


4. 按照要求结课后,即可免费获得认证证书:

· 完成当期论坛(截图)+分享心得(至少200字),发送邮件至【aiprospects@126.com】

· 工作人员核实后即可获得电子版盖章认证证书

· 邮件命名格式:AI未来说(xx专场)电子证书申请+姓名+学校/单位,如:AI未来说(NLP前沿技术及产业化专场)电子证书申请+张三+中国科学院大学


🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。



登录查看更多
1

相关内容

自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【高能所】如何做好⼀份学术报告& 简单介绍LaTeX 的使用
CNCC技术论坛 | 计算机视觉行业的挑战与契机
中国计算机学会
6+阅读 · 2018年10月21日
计算机视觉领域的王者与荣耀丨CCF-GAIR 2018
AI研习社
4+阅读 · 2018年6月24日
会议征文|第一届中国模式识别与计算机视觉学术会议
中国人工智能学会
5+阅读 · 2017年12月6日
报名 | 知识图谱前沿技术课程(暨学术交流)
PaperWeekly
17+阅读 · 2017年7月10日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
3+阅读 · 2018年3月27日
VIP会员
相关VIP内容
【高能所】如何做好⼀份学术报告& 简单介绍LaTeX 的使用
Top
微信扫码咨询专知VIP会员