免费报名 | DataFunCon:自然语言处理论坛

2020 年 7 月 22 日 深度学习自然语言处理

导读:7月25日,14:00-18:00,DataFunCon:自然语言处理论坛将准时开启,感兴趣的小伙伴和小编一起来了解下吧:

详细介绍:

出品人:王斌 博士

小米人工智能部AI实验室主任,NLP首席科学家

中国中文信息学会理事,计算语言学、信息检索、社会媒体处理、语言与知识计算等专委会委员及《中文信息学报》编委,中国计算机学会中文信息处理专业委员会委员。加入小米之前,在中科院计算所、信工所从事自然语言处理和信息检索相关的科研工作,任研究员、博导,中科院大学教授。发表学术论文200余篇,获得授权专利15项,译有《信息检索导论》、《大数据:互联网大规模数据挖掘与分布式处理》、《机器学习实战》等畅销书籍,在国际级评测或竞赛中3次名列第一,领导研制的多个内容分析处理系统在国家部委长期实际运行,科研成果获得国家科技进步二等奖2项,省部级科技奖3项,迄今培养博士、硕士近100名。长期担任SIGIR、CIKM、ACL、IJCAI、AAAI、WWW等会议的程序委员会委员。



杨比特

丁香园 | 资深NLP算法工程师

分享主题:医疗健康领域的短文本理解

内容摘要:分享在丁香园的业务场景下,短文本理解的技术实践,讨论知识图谱技术如何在医疗健康领域的搜索推荐中落地应用。

听众收益:医疗健康文本处理的解决思路,知识图谱技术落地思路。

新技术/实用技术点:实体链接,Concept挖掘,关键词抽取。

嘉宾简介:杨比特,硕士毕业于军事医学科学院,负责丁香园大数据NLP组,目前专注于医疗健康领域下的自然语言处理、知识图谱构建与应用、搜索与推荐技术。



罗锦文

腾讯 | 研究员

分享主题:热点挖掘及应用

内容摘要:当前各大资讯社交类APP都在显著的版面展示或者推荐热点相关内容,信息流应用能否快速发现热点、引导用户阅读热点,是影响用户体验的重要因素。本次分享主要介绍腾讯看点在热点方面的工作。基于搜索数据和自媒体文章,通过时序分析方法和内容聚类相结合的方法挖掘热点,并将热点聚类成事件和话题。用户搜索和媒体生产能够从消费和生产两个方面更加准确的度量热度,事件和话题同时能够辅助用户理解,做到热点的个性化下发,从而提升信息流热点体验。

听众收益:了解机器自动化挖掘热点内容的有效方法,以及如何个性化的分发热点。

新技术/实用技术点:时间序列分析和内容聚类相结合进行热点挖掘。

嘉宾简介:本科毕业于兰州大学,研究生毕业于北京大学。2016年阿里实习,然后2017下半年转战百度实习,于18年加入腾讯正式工作,负责新NLP新热内容挖掘和词法分析相关工作。



刘亮

美团 | 资深算法工程师

分享主题:O2O搜索场景下的查询理解系统

内容摘要:介绍美团搜索中查询理解系统的演进历史,NLP技术在OTO搜索场景的应用,以及我们面临的挑战和解决思路。读者可以从分享中了解美团查询理解的在利用NLP技术解决实际问题的一些经验。

嘉宾简介:刘亮,美团资深算法工程师,8年搜索和nlp相关工作经验,目前是美团搜索查询理解方向架构师。



苗艳军

爱奇艺 | 智能理解团队负责人

分享主题:NLP技术在短视频场景中的应用实践

内容摘要:短视频作为一种重要的信息传播媒介,每天被大量的生产并上传到各大短视频内容平台。如何加强对短视频的内容理解和提高智能分发效率是各大短视频平台面对的一个重要课题。随着深度学习和多模态技术的快速发展,NLP作为一种让计算机智能理解语言的技术,在其中发挥着越来越重要的作用。本次分享主要介绍在爱奇艺短视频场景下NLP技术的应用实践,主要内容包括:实体识别、长短关联、内容标签等。

听众收益:通过分享可以了解实体识别、长短关联、内容标签等模块在短视频场景下的技术迭代路径,以及所面对的业务痛点和解决思路。

嘉宾简介:2012年加入爱奇艺,主导和参与了NLP多个核心模块的研发和产品落地,目前主要负责NLP算法、知识图谱、Query理解、Query推荐等算法的研发和管理,相关技术和服务在爱奇艺内部被广泛使用。



王凡

百度 | 主任架构师

分享主题:通用对话系统的现状和未来

内容摘要:该演讲会系统地介绍通用对话系统最前沿的技术,包括知识对话生成、基于强化学习的可控对话、大规模预训练对话模型等等,以及展开对通用对话系统未来发展的讨论。

听众收益:可以对通用对话系统有全面的了解,包括最前沿的技术以及该领域接下来的发展方向。

新技术/实用技术点:

  • 知识对话生成

  • 基于强化学习的可控对话

  • 大规模预训练对话模型

嘉宾简介:王凡,2012年加入百度,现任百度自然语言处理部主任架构师,负责在线学习、前瞻对话等技术方向工作,将强化学习技术广泛落地到百度搜索、信息流、地图等核心业务。带队两次获得NuerIPS强化学习赛事国际冠军,在ACL、IJCAI、KDD等国际会议发表多篇论文。曾获百度最高奖,百度骄傲最佳个人。


崔建伟

小米 | 工程师

分享主题:预训练的应用挑战与实践探索

内容摘要:预训练模型在NLP大放异彩,并开启了预训练-微调的 NLP 范式时代。由于工业领域相关业务的复杂性,以及工业应用对推理性能的要求,大规模预训练模型往往不能简单直接地被应用于 NLP 业务之中,本次演讲介绍了小米在预训练模型的探索与优化。本演讲主要内容包括:

1. 预训练技术简介

2. 预训练技术应用落地的挑战:推理延时高、如何融入领域知识、根据具体任务进行结构与训练调整;

3. 预训练技术应用实践探索,包括:

  • 轻量级模型:知识蒸馏应用到小爱判不停

  • 推理优化:低精度+FastTransformer应用到闲聊相关性计算

  • 领域知识融入:槽位与实体信息融入应用到对话系统意图识别

  • 根据任务调整结构与训练:多粒度分词与闲聊生成式对话

4. 预训练技术近期发展与展望

听众收益:

  • 了解预训练技术的原理以及在NLP业务落地中的主要挑战;

  • 了解预训练技术在模型压缩和推理加速方向实战方案;

  • 了解在解决具体领域问题时,调整预训练模型结构与训练方法的经验。

新技术/实用技术点:

  • 轻量级模型实践

  • 预训练推理优化

  • 领域知识融入

  • 模型结构与训练方法优化

嘉宾简介:崔建伟,小米人工智能部AI实验室NLP应用组负责人。2012年加入小米,先后参与分布式系统HBase、FDS、SDS等开发;2017年开始负责NLP应用组,包括闲聊对话、机器翻译、预训练平台等项目,落地到小爱同学、小爱老师等重要业务。

活动报名:
识别二维码,免费报名

关于我们:

DataFunTalk 专注于大数据、人工智能技术应用的分享与交流。发起于2017年,在北京、上海、深圳、杭州等城市举办超过100场线下沙龙、论坛及峰会,已邀请近500位专家和学者参与分享。其公众号 DataFunTalk 累计生产原创文章300+,百万+阅读,6万+精准粉丝。

🧐分享、点赞、在看,给个三连击呗!👇 

登录查看更多
0

相关内容

自然语言处理(NLP)是语言学,计算机科学,信息工程和人工智能的一个子领域,与计算机和人类(自然)语言之间的相互作用有关,尤其是如何对计算机进行编程以处理和分析大量自然语言数据 。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
DataFunCon:2020大数据、AI的最新技术实践
DataFunTalk
69+阅读 · 2020年7月13日
ADL108《知识图谱》开始报名了
中国计算机学会
14+阅读 · 2019年10月8日
免费 | 从通识到核心—自然语言处理专题公开课
PaperWeekly
3+阅读 · 2018年12月25日
公开课 | 知识图谱关键技术与应用案例
AI100
7+阅读 · 2018年8月5日
报名 | 清华大学“智慧医学影像论坛2018”
数据派THU
8+阅读 · 2018年6月27日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关VIP内容
相关资讯
DataFunCon:2020大数据、AI的最新技术实践
DataFunTalk
69+阅读 · 2020年7月13日
ADL108《知识图谱》开始报名了
中国计算机学会
14+阅读 · 2019年10月8日
免费 | 从通识到核心—自然语言处理专题公开课
PaperWeekly
3+阅读 · 2018年12月25日
公开课 | 知识图谱关键技术与应用案例
AI100
7+阅读 · 2018年8月5日
报名 | 清华大学“智慧医学影像论坛2018”
数据派THU
8+阅读 · 2018年6月27日
Top
微信扫码咨询专知VIP会员