SMP十周年系列论坛第四期:图神经网络论坛,点击图片即可参与
近年来,图神经网络(GNN)除了在传统社交网络、知识图谱、推荐系统等领域得到深入研究和广泛应用之外,也逐步向药物分子研发和5G芯片设计等新领域逐步拓展,显示出了强大的生命力,已成为国际人工智能领域研究热点之一。但是,当前图神经网络在模型表达能力提升、大规模图预训练以及复杂图数据建模等方面还存在诸多挑战亟待探索和解决。本论坛邀请了活跃于图神经网络研究科研一线的四位青年学者,一方面就上述问题展开分享和深入讨论,同时对图神经网络未来发展趋势进行展望。
「SMP十周年系列论坛第四期:图神经网络论坛」将于2021年12月11日(周六)上午线上召开,本论坛邀请了活跃于图神经网络研究科研一线的四位青年学者,一方面就上述问题展开分享和深入讨论,同时对图神经网络未来发展趋势进行展望,欢迎感兴趣的师友们一同加入讨论,共同交流探讨。
SMP 2021大会官网:
https://conference.cipsc.org.cn/smp2021/
欢迎有兴趣朋友扫码报名参会,共同研讨!
主席简介:
宋国杰,北京大学智能学院副教授。研究方向包括:图机器学习与数据挖掘、社交网络分析和智能交通系统等。在包括国际顶级期刊TKDE、TPDS以及国际顶级会议NeurIPS、ICLR、KDD、AAAI、WWW等发表论文120余篇(CCF A/B 70+篇),担任多个国内、国际顶级会议程序委员会主席和资深程序委员,是IEEE Transaction on Intelligent Transportation System和IEEE Transaction on Big Data等多个国际知名期刊编委。论文获得CIKM2019、ADMA2020最佳论文提名奖和最佳论文奖。研究成果先后获得 “中国公路学会科学技术奖一等奖(2012)”、“山西省科学技术奖二等奖(2012)”、“中国公路学会科学技术奖一等奖(2013)”、 “中国计算机学会(CCF)科学技术自然奖二等奖(2020)”和“北京市自然科学奖二等奖(2020)”。
刘挺
SMP专委会主任
哈尔滨工业大学教授
嘉宾简介:刘挺,哈尔滨工业大学教授,哈工大计算学部主任兼计算机学院院长。国家“万人计划”科技创新领军人才,“十四五”国家重点研发计划先进计算与新兴软件重点专项专家组成员,教育部人工智能科技创新专家组成员。黑龙江省中文信息处理重点实验室主任,黑龙江省“人工智能”头雁团队带头人。多次担任国家863重点项目总体组专家、国家自然科学基金委评审专家。中国计算机学会理事,中国中文信息学会常务理事、社会媒体处理专委会(SMP)主任,曾任国际顶级会议ACL、EMNLP领域主席。主要研究方向为人工智能、自然语言处理和社会计算,是国家973课题、国家自然科学基金重点项目负责人。主持研制“语言技术平台LTP”、“大词林”等科研成果被业界广泛使用。曾获国家科技进步二等奖、省科技进步一等奖、钱伟长中文信息处理科学技术一等奖等。
讲者简介:
潘世瑞,现任蒙纳士大学(Monash University)数据科学与人工智能系高级讲师。2021年入选澳大利亚基金委ARC Future Fellowship(信息学部仅5人入选),同时入选全球AAAI/IJCAI最具影响力学者。指导学生2020年获得数据挖掘会议ICDM 最佳学生论文。在NeurIPS、ICML、KDD、TPAMI、TKDE等发表高水平论文百余篇。谷歌学术引用7200余次。主要研究方向为数据挖掘、机器学习,侧重于图数据学习与分析。
报告主题:弱监督图神经网络
报告摘要:近年来图神经网络在图分析任务中取得了巨大成功。学习图神经网络通常需要较为丰富的的数据标签。本次报告主要汇报我们最近图神经网络的一些新进展。报告首先介绍新的半监督图学习模型——对比图泊松网络(Contrastive Graph Poisson Networks),该模型能在标注数据严重不足(如每类别仅有一个标注样本)时能够取得较好效果。报告同时介绍我们在图自监督学习(Graph Self-supervised Learning)的一些进展,使得在没有标注数据下训练,图网络仍然能获得较好性能。
讲者简介:
贺笛,现为微软亚洲研究院机器学习组主管研究员,毕业于北京大学信息科学技术学院,主要研究方向为自然语言和图的表征学习,对抗鲁棒性,以及深度神经网络的优化。贺笛在机器学习顶级国际会议ICML,NeurIPS,ICLR上发表数十篇论文,并多年担任审稿人及领域主席工作。
报告主题:How Powerful are Transformers in Graph Representation Learning?
报告摘要:Transformer模型是自然语言处理中最受欢迎的神经网络模型结构。通过合理并大量使用注意力机制,Transformer模型可以极好的获取词语与词语之间的语义关系及句子的序列信息,进而理解句子在不同语境下含义。本工作将Transformer的应用场景从“序列型数据”扩展到更为结构化的“图类型数据”,如化学分子图,并提出Transformer的变种Graphormer。基于多种对图结构信息的编码,Graphormer可以很好的捕捉分子内不同元素之间的关系从而得到分子的表征。在新近举办的KDD Cup 2021中,Graphormer击败了包括DeepMind在内许多对手斩获分子预测任务的冠军,该模型作为预训练模型也在多个下游任务上取得最佳效果。
讲者简介:
金弟,天津大学智算学部英才副教授(特聘研究员),博士生导师。2012获得吉林大学博士学位,2013-2014在伯恩茅斯大学博士后,2019-2020在UIUC韩家炜老师组访问。一直从事图机器学习研究。近五年一作/通讯发表CCF A类论文20余篇,主持国家自然基金2项、国家重点研发计划子课题2项。担任AAAI/IJCAI SPC, IJCAI-19社交网络分析workshop Chair,IEEE Transaction on Big Data网络结构学习专刊Guest Editor。曾获CCF A类会议WWW-21最佳论文奖亚军,CCF B类会议ICDM-21最佳学生论文奖亚军,《自动化学报》2012年度优秀论文奖,ACM中国天津分会新星奖, 中国商业联合会科技进步一等奖。
报告主题:面向复杂图的图神经网络及其应用
报告摘要:图神经网络自提出以来迅速得到了学术和工业界的青睐,成为AI研究热点。现实世界中的许多图(网络)数据更为复杂,譬如:富含语义结构信息的富文本网络、具有不同类型结点链接和属性的异质信息网络、许多类型结点的属性完全缺失之不完整网络等。这也是目前网络大数据复杂化的一个新趋势。针对该问题,本报告介绍了我们在面向复杂图的图神经网络建模及其应用方面的一些最新进展,并结合当前研究热点及发展趋势,探讨我们的进一步研究思路。
讲者简介:
王啸,北京邮电大学副教授,硕士生导师,鹏城实验室兼聘助理研究员。研究方向为图神经网络、数据挖掘与机器学习。清华大学博士后,天津大学博士,美国圣路易斯华盛顿大学联合培养博士,入选微软亚洲研究院铸星学者,ACM China北京分会新星,CCF高级会员。共发表论文70余篇,总引用3700余次,其中CCF A类论文30余篇,ESI高被引论文1篇,3篇论文单篇引用超过500次,1篇提名WWW 2021最佳论文, 1篇获得ICDM 2021最佳学生论文亚军,3篇入AAAI2017/WWW2019,2020最有影响力论文榜单。出版教材一部。担任WWW/AAAI/IJCAI的高级程序委员会委员。主持多项国家自然科学基金和CCF-腾讯犀牛鸟科研基金。
报告主题:Graph Neural Networks: Pitfalls and Remedies
报告摘要:图神经网络已成为当前深度学习领域的新浪潮,是目前学术界与工业界处理图数据的重要手段之一。本次报告将首先探讨当前图神经网络的基本特性,进而反思其背后存在的缺陷,并提出相应的解决方案。具体而言,图神经网络凭借其低通滤波特性在半监督学习范式下取得了优越的性能,然而在实际中却面临着低通滤波特性是否最优,半监督学习是否足够,优越性能是否可信等本质问题。本次报告将涵盖异配图神经网络、图神经网络的统一框架、可信图神经网络以及自监督学习等方面的进展,为理解图神经网络带来新的视角,并赋予图神经网络更强大与全面表达能力。
微信扫描上方二维码进入「SMP 2021十周年系列论坛交流群」,内有组委会和工作人员及时解答。
点击左下角“阅读原文”
进入SMP 2021大会官网!