由你投票选出的NeurIPS 2022论文直播分享拍了拍你

2022 年 11 月 29 日 微软研究院AI头条


(本文阅读时间:9分钟)


备受关注的人工智能国际顶会 NeurIPS 2022 于昨天正式拉开帷幕。在此前的系列文章中,我们从人工智能的五大热点话题与大家分享了微软亚洲研究院入选 NeurIPS 2022 的论文,包括人工智能大一统与理论研究赋能产业界的人工智能,以及有创造力又负责任的人工智能。每篇文章末尾的投票结果现已诞生!


被大家所 pick 的人气论文们,将于12月2日(本周五)14:00登录“微软中国视频中心”的 B 站直播间,与大家在云端零距离见面!欢迎多发弹幕参与互动,在每篇论文分享结束后,讲者将在问答环节中解答弹幕中提出的问题!


直播信息


直播时间:

2022年12月02日14:00-16:00


直播地址:

B 站账号“微软中国视频中心”直播间


扫码直达 B 站直播间


论文及讲者介绍



付强

微软亚洲研究院

高级研究员


付强博士毕业于清华大学电子工程系,现任微软亚洲研究院高级研究员,主要从事机器学习、深度神经网络、图神经网络等方面的算法、理论及应用研究。此前,付强博士任微软(美国)搜索广告部高级应用科学家,从事信息检索、自然语言理解、图像处理等方面的算法研究及其在搜索广告产品中的应用。付强博士在机器学习、数据挖掘、计算机系统等领域的国际顶级会议及期刊上共发表论文40余篇,并持有多项美国专利。


论文题目: 

稳定的神经元响应会提升模型泛化性能

Neuron with Steady Response Leads to Better Generalization


论文摘要:

能否探寻到统摄不同任务和网格结构的本质共性来提高多种网络的泛化性能,是本文的研究切入点。本文从神经元级别的细粒度出发,仔细分析了单个神经元在神经网络训练和测试中的响应特性,发现提升神经元对同类输入样本响应的稳定性能够有效地提高神经网络的泛化性能。据此,本文提出了一种通用的正则项,用于控制神经元在激活状态下响应的类内方差。该正则项简单高效,能在不同领域的多个数据集(ImageNet, CIFAR10, PubMed, WikiCS)以及多种网络结构 (MLP, CNN, GNN)上普遍地提升模型的泛化性能。


论文链接:

https://www.microsoft.com/en-us/research/publication/neuron-with-steady-response-leads-to-better-generalization/




王希廷

微软亚洲研究院

高级研究员


王希廷,微软亚洲研究院社会计算组高级研究员,研究兴趣为可解释、负责任的人工智能。她的研究成果发表在 ICML、KDD 等顶级会议期刊上,并在多个产品中落地应用。她曾两次获得 CCF-A 类期刊 TVCG 封面论文奖,获 AAAI 2021 Best SPC 奖,正担任 IJCAI 领域主席。


论文题目: 

基于逻辑规则推理的自可解释深度学习框架

Self-explaining deep models with logic rule reasoning


论文摘要:

本文提出的框架把给定黑盒模型升级成自可解释深度模型,在没有人工规则标注的情况下自动提取逻辑规则。生成的解释和人推理逻辑相似性高,升级后的模型预测准确性不降低、对噪音更鲁棒,同时容易融入用户反馈。


论文链接:

https://www.microsoft.com/en-us/research/publication/self-explaining-deep-models-with-logic-rule-reasoning/




孙宇冲

中国人民大学

博士生


孙宇冲,中国人民大学高瓴人工智能学院直博三年级,研究兴趣包括自然语言多模态理解、多模态交互等。


论文题目:

基于多模态时序对比学习的长视频-语言预训练

Long-Form Video-Language Pre-Training with Multimodal Temporal Contrastive Learning


论文摘要:

本文探索了直接从长视频-语言中学习表征以帮助许多长视频-语言理解任务。本文提出了 Long-Form VIdeo-LAnguage 预训练模型(LF-VILA),并在大规模长视频和段落数据集 LF-VILA-8M 上进行了训练。本文还提出了一种多模态时序对比学习(MTC)损失和一种分层时间窗口注意力(HTWA)机制,以有效的端到端的方式更好地对齐视频和语言。LF-VILA 在多个长视频-语言及长视频理解任务上取得了最好的性能。


论文链接:

https://www.microsoft.com/en-us/research/publication/long-form-video-language-pre-training-with-multimodal-temporal-contrastive-learning/




赵宇澄

中国科学技术大学

博士生


赵宇澄,中国科学技术大学的三年级博士生,导师是查正军教授。他于2018年从中国科学技术大学取得了学士学位。他是微软亚洲研究院智能多媒体组的研究实习生,研究方向为自监督表征学习和计算机视觉,已经在 IJCAI、AAAI、NeurIPS 和 ICCV 等会议上发表多篇论文。


论文题目:

周边视觉注意力网络

Peripheral Vision Transformer


论文摘要:

人类拥有周边视觉这种特殊的视觉处理系统,我们的整个视野可以根据到凝视中心的距离被划分为多个轮廓区域,而周边视觉使我们能够感知不同区域的各种视觉特征。受此启发,微软亚洲研究院的研究员们探索了在深度神经网络中模拟周边视觉进行视觉识别的方法。


论文链接:

https://www.microsoft.com/en-us/research/publication/peripheral-vision-transformer/




宋晓壮

微软亚洲研究院

机器学习组实习生


宋晓壮,在北京邮电大学和南方科技大学分别获得本科与硕士学位,作为研究实习生在微软亚洲研究院从事应用驱动的人工智能解决方案相关的研究,研究兴趣为多任务学习、机器学习、图学习等。


论文题目:

面向多任务分组学习的元学习框架

Efficient and Effective Multi-task Grouping via Meta Learning on Task Combinations


论文摘要:

为应对任务组合爆炸增长的挑战,在本文中研究员们为多任务分组学习提出了一套元学习框架来实现有效的任务分组。结果显示在几乎同等的计算开销下,相对于现有的最佳方案,本文提出的方法获得了几乎翻倍的性能提升。


论文链接:

https://openreview.net/forum?id=Rqe-fJQtExY




卢佩玲

微软亚洲研究院

研发工程师


卢佩玲,微软亚洲研究院研发工程师,主要研究方向为音乐生成、音乐理解和唱歌合成。她对于利用深度学习模型进行音乐结构建模、歌词到旋律的生成、编曲、配乐、唱歌声音合成有一定的研究,先后在 NeurIPS、EMNLP、ISMIR、Interspeech 发表过相关工作。


论文题目:

Museformer: 结合粗/细粒度注意力机制的音乐生成模型

Museformer: Transformer with Fine- and Coarse-Grained Attention for Music Generation


论文摘要:

为了更好地建模音乐长序列,本文提出 Museformer,它包含一种新颖的细粒度和粗粒度相结合的注意力机制,更加切合音乐序列的特点:序列长(超过10000个token),以及具有重复结构。Museformer 既能精准编码音乐结构相关信息,又能以较小代价保留其他重要信息,且相较于全注意力模型,在32GB显存下,Museformer 能够编码超过其3倍长度的序列,并且训练速度在长序列场景下也提升显著。


论文链接:

https://arxiv.org/abs/2210.10349


日程安排


14:00-14:20

论文题目:

稳定的神经元响应会提升模型泛化性能

分享者:

付强,微软亚洲研究院高级研究员

14:20-14:40


论文题目:

基于逻辑规则推理的自可解释深度学习框架

分享者:

王希廷,微软亚洲研究院高级研究员

14:40-15:00


论文题目:

基于多模态时序对比学习的长视频-语言预训练

分享者:

孙宇冲,中国人民大学高瓴人工智能学院博士生

15:00-15:20


论文题目:

周边视觉注意力网络

分享者:

赵宇澄,中国科学技术大学博士生

15:20-15:40


论文题目:

面向多任务分组学习的元学习框架

分享者:

宋晓壮,微软亚洲研究院机器学习组实习生

15:40-16:00


论文题目:

Museformer: 结合粗/细粒度注意力机制的音乐生成模型

分享者:

卢佩玲,微软亚洲研究院研发工程师



请锁定 B 站账号“微软中国视频中心“,精彩讲解与您不见不散!






你也许还想看






登录查看更多
1

相关内容

【NeurIPS 2021】多视角对比图聚类
专知会员服务
35+阅读 · 2021年10月31日
专知会员服务
51+阅读 · 2021年5月30日
专知会员服务
58+阅读 · 2021年4月29日
专知会员服务
52+阅读 · 2020年11月3日
专知会员服务
113+阅读 · 2020年10月8日
专知会员服务
45+阅读 · 2020年10月5日
专知会员服务
53+阅读 · 2019年12月22日
CVPR 2022论文分享会 | 共赴计算机视觉论文分享盛宴!
微软研究院AI头条
0+阅读 · 2022年4月15日
直播预告 | IJCAI 2021 专场来啦!
THU数据派
0+阅读 · 2021年12月15日
NeurIPS论文分享会日程出炉!明天直播间不见不散!
微软研究院AI头条
0+阅读 · 2021年11月17日
11.11福利来袭!NeurlPS 2021论文打包分享,直播间见!
微软研究院AI头条
1+阅读 · 2021年11月11日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年2月2日
Arxiv
25+阅读 · 2021年3月20日
Arxiv
38+阅读 · 2020年3月10日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关VIP内容
【NeurIPS 2021】多视角对比图聚类
专知会员服务
35+阅读 · 2021年10月31日
专知会员服务
51+阅读 · 2021年5月30日
专知会员服务
58+阅读 · 2021年4月29日
专知会员服务
52+阅读 · 2020年11月3日
专知会员服务
113+阅读 · 2020年10月8日
专知会员服务
45+阅读 · 2020年10月5日
专知会员服务
53+阅读 · 2019年12月22日
相关基金
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员