中国中文信息学会《前沿技术讲习班》早鸟票倒计时10天!豪华讲师团等你来!

2021 年 7 月 1 日 哈工大SCIR
声明: 本文转载自 中国中文信息学会 公众号

日程安排

 7月22日(CIPS ATT23) ·


08:30-09:00讲习班开幕

09:00-12:00自然语言处理:基于预训练模型的方法1

                         车万翔(哈尔滨工业大学)

14:00-17:00自然语言处理:基于预训练模型的方法2

                         崔一鸣(科大讯飞)

 7月23日(CIPS ATT23) ·


09:00-10:30|跨语言预训练模型

                         董力(微软亚洲研究院)

10:30-12:00|跨模态预训练模型

                         孙宇(百度公司)

14:00-15:30|知识指导的预训练语言模型

                         刘知远(清华大学)

15:30-17:00|面向生成的预训练模型

                         杨植麟(循环智能)

 7月24日 (CIPS ATT24)·


09:00-10:30|预训练模型在NLP基础任务中的应用

                         邱锡鹏(复旦大学)

10:30-12:00|预训练模型在机器阅读理解任务中的应用

                         赵海(上海交通大学)

14:00-15:30|机器翻译的预训练方法

                         李磊、王明轩(字节跳动)

15:30-17:00|基于预训练模型的对话系统

                         黄民烈(清华大学)

 7月25日(CIPS ATT24) ·


09:00-10:30|预训练模型在推荐系统中的应用

                         赵鑫、陈旭(中国人民大学)

10:30-12:00|预训练模型在信息检索中的应用

                         郭嘉丰、范意兴(中科院计算所)

14:00-15:30|学术论文写作的一些体会

                         兰艳艳(清华大学)

15:30-17:00|Research:the Good, the Bad and  the Ugly

                         刘康(中科院自动化所)

                         韩先培(中科院软件所)


特邀报告

自然语言处理:基于预训练模型的方法

报告摘要:以GPT、BERT为代表的预训练模型的出现,打开了自然语言处理的新篇章。“预训练+精调”也已经成为自然语言处理的新范式。本报告在介绍自然语言处理、深度学习等基本概念的基础上,重点介绍基于预训练模型的自然语言处理技术,主要包括基础知识、预训练词向量和预训练模型三大部分。基础知识部分介绍自然语言处理和深度学习的基础知识和基本工具;预训练词向量部分介绍静态词向量和动态词向量的预训练方法及应用方法;预训练模型部分首先介绍几种典型的预训练语言模型及应用,以及预训练模型的最新进展。除介绍理论知识之外,还将结合具体代码进行深入介绍,对理论有更深刻的理解,达到理论和实践的统一。

车万翔  INVITED SPEAKER

车万翔,哈尔滨工业大学计算机学院长聘教授、博士生导师,社会计算与信息检索研究中心副主任。教育部青年长江学者,黑龙江省“龙江学者”青年学者,斯坦福大学访问学者,2019年入选黑龙江省首批“头雁计划”团队成员。现任中国中文信息学会计算语言学专业委员会副主任兼秘书长;国际计算语言学学会亚太分会(AACL)执委兼秘书长;中国计算机学会高级会员、曾任YOCSEF哈尔滨主席(2016-2017年度)。在ACL、EMNLP、AAAI、IJCAI等国内外高水平期刊和会议上发表学术论文50余篇,其中AAAI 2013年的文章获得了最佳论文提名奖,论文累计被引用4,400余次(Google Scholar数据),H-index值为37。出版教材 2 部,译著 2 部。目前承担2030“新一代人工智能”重大项目课题、国家自然科学基金等多项科研项目。曾获2020年黑龙江省青年科技奖等多个奖项。

崔一鸣 INVITED SPEAKER

崔一鸣,科大讯飞北京研究院副院长、资深级主管研究员。毕业于哈尔滨工业大学,获工学学士和硕士学位,并继续攻读博士学位。主要从事阅读理解、问答系统、预训练模型等自然语言处理相关领域的研究工作,并致力于推动中文机器阅读理解、中文预训练模型的研究与发展。相关研究成果在多个机器翻译、机器阅读理解、自然语言理解评测中获得冠军,相关开源项目已在GitHub获得8000以上Stars。在高水平国际会议上发表论文30余篇,其中包括ACL、EMNLP、NAACL、AAAI、COLING等。任EMNLP 2021和NLPCC 2021领域主席,担任NLP和AI主流国际会议及TNNLS、TKDD、JCSL、TASLP等国际ESI期刊审稿人。

特邀

报告

跨语言预训练模型

报告摘要:语言模型预训练极大推动了多语言研究,使高资源语言的标注数据可以帮助提升低资源语言,减小了模型国际化的代价。本次报告介绍跨语言预训练的最新研究进展与趋势,对当前跨语言预训练方法、微调技术进行梳理。同时,本报告介绍了跨语言文本理解与生成的常用评测方式。此外,对当前跨语言预训练研究面临的挑战进行了探讨。

董力  INVITED SPEAKER

董力,微软亚洲研究院自然语言处理组研究员。博士毕业于爱丁堡大学。现主要从事大规模语言模型预训练,研究方向为自然语言表示学习。参与研发了UniLM(统一理解、生成预训练)、InfoXLM(跨语言预训练)、XNLG(跨语言生成预训练)、DeltaLM(跨语言生成预训练)、MiniLM(预训练模型压缩)、AdaLM(预训练模型领域适应)等一系列模型。曾获得AAAI-2021 Best Paper Runner Up、2019 AAAI/ACM SIGAI Doctoral Dissertation Award Runner Up、ACL-2018 Best Paper Honourable Mention。多次担任ACL、EMNLP、NAACL等会议领域主席。

特邀

报告

跨模态预训练模型

报告摘要:随着大规模自监督技术在NLP各个任务上取得了显著的效果提升,以视觉-语言为主的跨模态预训练也受到了越来越多的关注,大幅提升了诸如视觉问答、跨模态检索等跨模态任务的效果。当前,跨模态预训练技术主要通过对NLP预训练技术进行跨模态的扩展,构建在多模态上下文基础上的单模态预测(视觉区域预测、语言模型等)、跨模态语义对齐等预训练任务,在大规模跨模态对齐数据上学习跨模态的联合语义表示。融合跨模态知识、跨模态对抗训练、多个模态统一建模等是跨模态预训练的新思路。本报告针对语言-视觉、语言-语音跨模态预训练,介绍该领域最新的进展和趋势。

孙宇  INVITED SPEAKER

孙宇,百度杰出架构师、百度文心(ERNIE)语义理解技术与平台负责人。主要研究领域包括自然语言理解、对话系统、深度学习、信息检索等。领导研发了百度语义理解技术与平台文心(ERNIE)、百度搜索引擎关键核心技术语义匹配SimNet等业界领先技术,相关成果广泛应用于搜索引擎、信息流、智能音箱、地图等产品,显著改善亿万网民用户体验。取得包括国际权威的通用语言理解评估基准GLUE、全球规模最大的语义评测SemEval等评测世界冠军十余项,在ACL、NAACL、AAAI等会议发表论文十余篇,发表国内外相关专利七十余项,相关论文被Paper Digest评为AAAI 2020最具影响力的学术论文之一。荣获世界人工智能大会最高奖项 SAIL 奖、中国人工智能学会优秀科技成果奖、中国电子学会科技进步一等奖等奖项。

特邀

报告

知识指导的预训练语言模型

报告摘要:近年来深度学习成为自然语言处理关键技术,特别是2018年以来的预训练语言模型显著提升了自然语言处理的整体性能。作为典型的数据驱动方法,以预训练语言模型为代表的深度学习仍然面临可解释性不强、鲁棒性差等难题,如何将人类积累的大量语言知识和世界知识引入模型,是改进深度学习性能的重要方向,同时也面临很多挑战。本报告将系统介绍知识指导的预训练语言模型的最新进展与趋势。

刘知远  INVITED SPEAKER

刘知远,清华大学计算机系副教授、博士生导师。主要研究方向为表示学习、知识图谱和社会计算。已在ACL、EMNLP、AAAI、IJCAI等人工智能领域的著名国际期刊和会议发表相关论文100余篇,Google Scholar统计引用1.4万次。曾获教育部自然科学一等奖(第2完成人)、中国中文信息学会钱伟长中文信息处理科学技术奖一等奖(第2完成人)、中国中文信息学会汉王青年创新奖,入选国家万人计划青年拔尖人才、北京智源研究院青年科学家、2020年Elsevier中国高被引学者、中国科学青年人才托举工程。

特邀

报告

面向生成的预训练模型

报告摘要:

自然语言处理任务有几种主要类别:自然语言理解和分类任务、无条件生成任务、有条件生成任务。流行的预训练架构包含几种主要范式:基于编码器架构的BERT范式、基于解码器架构的GPT范式、基于混合架构的范式。本报告将探讨如何在纷繁复杂的任务体系和架构体系当中寻找统一的解决方案,其中将重点讨论「生成理解一体化」的思想,讨论基于生成的方式如何统一预训练和微调任务。同时,本次报告还将讨论基于生成的思想在少样本学习、知识探测、诗歌生成等下游任务的应用,以及基于生成的预训练模型在工业界对话理解场景的落地案例。

杨植麟  INVITED SPEAKER

杨植麟,循环智能(Recurrent AI)联合创始人;曾在自然语言理解、半监督学习、少样本学习等30多个AI任务上取得世界第一(state-of-the-art),引用数超过7000;其作为第一作者发明的XLNet在20项任务上超越Google BERT,是2019年全球引用最高的同行评审NLP论文,入选AI顶级会议NeurIPS 2019口头报告(录用率千分之五);其发明的Transformer-XL是首个全面超越RNN的注意力语言模型,是ACL 2019引用最高的论文。他曾获得Forbes Asia 30 under 30、西贝尔学者、英伟达学者、智源青年科学家等荣誉;与多名图灵奖得主合作发表论文。本科毕业于清华大学,博士毕业于卡内基梅隆大学。


特邀

报告

预训练模型在NLP基础任务中的应用

报告摘要:本报告将介绍预训练模型在NLP基础任务上的应用,包括中文分词、词性标注、命名实体识别、文本分类等。本报告分为三个部分:1)如何在下游任务精调预训练模型;2)在NLP基础任务上的应用;3)重点介绍一种统一生成框架,可以用来解决众多NLP基础任务。

邱锡鹏  INVITED SPEAKER

邱锡鹏,复旦大学计算机学院教授,国家优青获得者,于复旦大学获得理学学士和博士学位。主要从事自然语言处理、深度学习等方向的研究,发表CCF A/B类论文70余篇,获得ACL 2017杰出论文奖(CCF A类)、CCL 2019最佳论文奖,有4篇论文入选PaperDigest发布的IJCAI/ACL/EMNLP的最有影响力论文(各会议每年10篇)。出版开源专著《神经网络与深度学习》,Github关注数1.4万,豆瓣评分9.3分。主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用。2015年入选首届中国科协青年人才托举工程项目,2018年获钱伟长中文信息处理科学技术奖青年创新奖一等奖,2020-2021年连续两年入选由清华-中国工程院知识智能联合研究中心发布的"AI 2000人工智能全球最具影响力提名学者"等。培养学生曾获中国中文信息学会优博、中国人工智能学会优博、上海市优博、微软学者、百度奖学金等。

特邀

报告

预训练模型在机器阅读理解任务中的应用

报告摘要:语言模型在早期的统计自然语言处理上曾发挥核心作用,作为核心组件广泛用于语音识别和统计机器翻译。深度学习引入自然语言处理以后,基于低维分布式向量表示的词嵌入大行其道,也取得了显著成果。在2017年以后,以ELMo和BERT为代表的上下文依赖语言模型快速崛起,它继承了语言模型的训练方式,同时具有整句级的编码和词嵌入表示形式。由于对于算力要求较高,这类模型提出了新的预训练-微调的工作方式,因此特别称之为预训练语言模型。各类预训练语言模型已在包括各类语言结构分析(如句法、语义分析)以及机器翻译、机器阅读理解等任务上的巨大性能提升。其中,机器阅读理解是深度学习下的自然语言理解领域在最近几年才引入的新型任务,它已经被证明特别依赖于有效的编码器和语言表示。本报告中我们将探讨语言模型、表示对于机器阅读理解的技术性影响,包括技术演化的时间线、现状和挑战,特别是最近一年来最新进展和一些个人新的思考。

赵海  INVITED SPEAKER

赵海,上海交通大学计算机科学与工程系教授、博士生导师。研究兴趣自然语言处理和相关深度学习。发表论文130篇,其中近年来CCF-A论文近40篇。Google scholar引用计数约4500次。ACM专业会员,中国计算机学会自然语言处理专委会委员,上海市计算机学会人工智能专委副主任,2014起PACLIC指导委员会委员。ACL-2016的出版事务主席、ACL-2017程序委员会Parsing领域主席,ACL-2018,2019程序委员会的形态和分词领域高级主席。旗舰机器阅读理解国际排行榜RACE、SQuAD2.0等第一名并首超人工成绩。

特邀报告

机器翻译的预训练方法

报告摘要:预训练-细调已经成为自然语言处理中的重要方法。预训练通常使用大规模容易获取的原始文本,而非需人工标注的数据。如何在神经网络机器翻译中利用预训练方法来提升翻译能力?直接将预训练好的BERT等语言模型应用于机器翻译很难获得预期。本次讲座将围绕单语预训练、多语言预训练、多模态预训练三个方面来介绍机器翻译中利用预训练提升的最新进展。预训练在机器翻译中需要达到三个目标:设计有效目标从而适应翻译任务;充分利用大量单语和有限双语、文本和不同模态数据;拉近跨语言跨任务表示。通过预训练和细调方法,在双语翻译,多语言联合翻译(包括zero-shot场景),语音翻译,图像辅助翻译等不同翻译场景都取得了显著提升。

李磊  INVITED SPEAKER

李磊,字节跳动人工智能实验室总监。本科博士分别毕业于上海交通大学和卡耐基梅隆大学计算机系。曾任加州大学伯克利分校作博士后研究员和百度美国深度学习实验室少帅科学家。曾获2012年美国计算机学会SIGKDD最佳博士论文第二名、2017年吴文俊人工智能技术发明二等奖、2017年CCF杰出演讲者、2019年CCF青竹奖。在机器学习、数据挖掘和自然语言处理领域于国际顶级学术会议发表论文100余篇,拥有二十余项技术发明专利。担任CCF自然语言处理专委委员和EMNLP, NeurIPS, AAAI, IJCAI, KDD等多个会议组委成员和领域主席。

王明轩  INVITED SPEAKER

王明轩,字节跳动人工智能实验室资深研究员,博士毕业于中国科学院计算技术研究所,主要研究方向为机器翻译。主导研发了火山翻译系统,服务全球过亿用户,并多次带领团队在 WMT 机器翻译评测中拿到过冠军。在 ACL、EMNLP、NAACL 等相关领域发表论文 30 多篇。担任CCF自然语言处理专委委员和国内外多个会议组委成员。

特邀

报告

基于预训练模型的对话系统

报告摘要:基于大数据、大模型的开放域对话系统是当前自然语言处理领域研究的热点之一。Meena、blender、plato等对话系统的推出,让研究者们看到了突破传统对话建模瓶颈的希望。讲者将围绕基于预训练模型的对话系统,阐述其中重要的问题、挑战,以及最新的方法,特别是大数据、大模型下的框架和任务设计。

黄民烈  INVITED SPEAKER

黄民烈,清华大学计算机科学与技术系长聘副教授,智能技术与系统实验室副主任,中国中文信息学会自然语言生成与智能写作专委会(筹)副主任。IEEE、CCF高级会员。研究领域为自然语言处理,特别是自然语言生成、对话系统、阅读理解等。曾获得中国人工智能学会吴文俊人工智能科技进步奖一等奖(排名第一),中国中文信息学会汉王青年创新奖,阿里巴巴创新合作研究奖,获得国家自然科学基金重点项目资助。多次获得国际主流会议的最佳论文或提名。研发对话系统平台ConvLab和ConvLab2,多次组织国内外有影响力的对话系统评测与竞赛,获得NTCIR 2017年组织的短文本对话生成评测冠军。担任多个国际顶级期刊编委,国际顶级会议领域主席等。

特邀报告

预训练模型在推荐系统中的应用

报告摘要:本报告将聚焦预训练模型在推荐系统领域的应用,对最近几年的相关研究进行简要梳理和回顾,主要报告内容集中在以下几个方面。1)基础背景:预训练模型和推荐系统的相关背景知识;2)预训练模型在推荐系统中应用的动机和挑战:为什么预训练模型在推荐系统领域受到广泛关注,应用过程中的主要难点是什么。3)预训练模型在推荐系统中的应用策略和相关方法:如何更好地利用推荐系统中用户的行为数据、设计更好的模型架构和学习算法。4)预训练模型在推荐系统中应用的未来展望:该领域亟待解决的问题和未来的发展方向。

赵鑫  INVITED SPEAKER

赵鑫,现为中国人民大学高瓴人工智能学院长聘副教授。2014年7月于北京大学获得博士学位,随后进入中国人民大学工作至今。研究领域为信息检索与自然语言处理,共计发表论文80余篇。荣获2020年吴文俊人工智能优秀青年奖、ECIR’21时间检验奖(Test of Time Award)等,入选中国科协青年人才托举工程、北京智源青年科学家。

陈旭  INVITED SPEAKER

陈旭,现为中国人民大学高瓴人工智能学院准聘助理教授。博士毕业于清华大学,博士期间曾在佐治亚理工学院进行交流访问,博士毕业后曾在英国伦敦大学学院担任博士后研究员,于2020年加入中国人民大学。其主要研究方向为推荐系统,强化学习,因果推断等。曾在SIGIR、TOIS、WWW、WSDM、CIKM、AAAI等信息检索领域顶级会议和期刊发表论文30余篇。曾获得The Web Conference 2018 最佳论文提名奖、AIRS 2017 最佳论文奖。

特邀报告

预训练模型在信息检索中的应用

报告摘要:本报告将聚焦在预训练模型在信息检索中的应用,对最近几年的相关研究进行系统的梳理和回顾。报告的主要内容包括:1)基础背景:信息检索的相关背景知识介绍;2)预训练模型在检索召回阶段的应用:包括预训练模型在传统稀疏检索框架下的应用以及基于预训练模型的稠密检索方法;3)预训练模型在重排序阶段的应用:包括基于预训练模型的表示学习、交互学习建模方法与模型加速,以及基于生成模型的排序建模等;4)面向信息检索的预训练模型设计:如何构建满足信息检索任务需求的自监督学习任务,进一步提升信息检索的性能。

郭嘉丰  INVITED SPEAKER

郭嘉丰,博士生导师,中科院计算技术研究所研究员,中国科学院大学岗位教授,现任中科院网络数据科学与技术重点实验室常务副主任,国家优青获得者,中科院青促会优秀会员,北京智源学者,联想青年科学家。长期从事智能信息检索与大数据分析方向研究。发表学术论文100余篇,Google Scholar累计引用7000余次,获得CIKM 2011最佳论文奖,SIGIR 2012最佳学生论文奖, CIKM 2017最佳论文Runner-up奖。担任本领域国际重要学术期刊ACM TOIS、IRJ编委以及主要国际会议的程序委员会高级评审委员、委员等。相关成果获得2020年国家技术发明二等奖(待批)、2012年国家科技进步二等奖、2012年中国中文信息学会 “钱伟长中文信息处理科学技术奖-汉王青年创新奖”一等奖。

范意兴  INVITED SPEAKER

范意兴,中科院计算所助理研究员,主要研究内容包括信息检索、自然语言处理等,在国际顶级学术会议SIGIR、WWW、CIKM、ACL等发表论文30余篇,获得了2017年CIKM最佳论文Runner Up奖,2018年中国中文信息学会优秀博士论文奖,2019年CCIR最佳论文奖。开发了深度文本匹配工具MatchZoo,在开源平台Github中得到研究人员的广泛使用与认可。曾获得中科院院长优秀奖,入选中国科协青年人才托举工程、中国科学院青年创新促进会会员,担任CIPS信息检索专委会委员、CIPS青年工作委员会委员、以及国内外多个会议组委成员。

特邀

报告

学术论文写作的一些体会

报告摘要:报告将结合作者的个人研究背景和经历,介绍学术论文写作的一些体会,包括逻辑的重要性,3W2H写作法则,论文的润色技巧,复盘与提高等。

兰艳艳  INVITED SPEAKER

兰艳艳,目前在清华大学智能产业研究院任研究员,曾任中科院计算所研究员,博士生导师。兰艳艳博士的研究方向为信息检索,机器学习和自然语言处理,在人工智能和机器学习领域重要国际期刊和会议上发表论文80 余篇。曾获SIGIR最佳学生论文奖、CIKM最佳论文Runner-Up奖。入选中国科学院青年创新促进会优秀会员,北京市智源人工智能研究院青年科学家,获得中国中文信息学会钱伟长中文信息处理科学技术奖一等奖。

特邀报告

Research:the Good, the Bad and  the Ugly

报告摘要:对于刚入门的同学来说,科研之路无疑是曲折和迷茫的。Good科研方法让你仰望星空,Bad科研方法让你在仰望星空的时候避免掉入水坑,Ugly科研故事让你前进路上潇洒从容。本报告将介绍两位讲者在30多年(求和得出)科研经历中遇到过、看到过、听到过的Good、Bad、Ugly的科研方法(包括但不限于其中的故事、心态、理念、方法等),希望对于同学们的学习、科研和生活有所帮助。

刘康  INVITED SPEAKER

刘康,中国科学院自动化研究所模式识别国家重点实验室研究员、博士生导师。研究领域包括自然语言处理、文本信息抽取、知识图谱、问答系统等,同时也涉及模式识别与机器学习方面的基础研究。在自然语言处理、知识工程等领域国际重要会议和期刊发表多篇学术论文,Google Scholar引用9000余次。曾获COLING 2014最佳论文奖、Google Focused Research Award、中国中文信息学会“钱伟长中文信息处理科学技术奖”一等奖、北京市科学技术进步一等奖等多项学术奖励。目前兼任Pattern Recognition期刊的Associate Editor、TACL编委、中国中文信息学会语言与知识计算专委会秘书长等学术职务,入选北京智源人工智能研究院青年科学家,也曾任ACL等多个国际高水平学术会议领域主席等。作为项目负责人获得国家自然科学基金委优秀青年基金支持。

韩先培  INVITED SPEAKER

韩先培,中国科学院软件研究所中文信息处理实验室/计算机科学国家重点实验室研究员,博士生导师。主要研究方向为信息抽取、知识图谱、语义解析以及智能问答系统。承担和参与中科院先导、科技创新2030、自科重点等十余项课题。在ACL、SIGIR、IJCAI、AAAI等重要国际会议发表论文60余篇。担任中国中文信息学会理事,语言与知识计算专业委员会副主任。入选科协青托、北京智源青科、软件所杰青等,获中国中文信息学会汉王青年创新奖及科学技术奖一等奖。




会议地点:北京西郊宾馆


本期责任编辑: 赵森栋
本期编辑:冯   晨


哈工大SCIR公众号
主编:张伟男
副主编:丁效,刘铭,冯骁骋,赵森栋
执行编辑:杜佳琪
编辑: 钟蔚弘,彭湃,朱文轩,冯晨,牟虹霖,张馨,王若珂,高建男

长按下图即可关注哈尔滨工业大学社会计算与信息检索研究中心微信公众号 哈工大SCIR
登录查看更多
0

相关内容

在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
SMP 2021 前沿讲习班
哈工大SCIR
0+阅读 · 2021年7月12日
报名 | 知识图谱前沿技术课程(苏州大学站)
PaperWeekly
12+阅读 · 2017年11月27日
报名 | 知识图谱前沿技术课程(暨学术交流)
PaperWeekly
17+阅读 · 2017年7月10日
国家自然科学基金
3+阅读 · 2018年6月30日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年4月20日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年8月29日
国家自然科学基金
0+阅读 · 2012年8月24日
国家自然科学基金
0+阅读 · 2012年4月30日
国家自然科学基金
1+阅读 · 2012年3月31日
国家自然科学基金
0+阅读 · 2011年4月30日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
3+阅读 · 2018年6月30日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年4月20日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年8月29日
国家自然科学基金
0+阅读 · 2012年8月24日
国家自然科学基金
0+阅读 · 2012年4月30日
国家自然科学基金
1+阅读 · 2012年3月31日
国家自然科学基金
0+阅读 · 2011年4月30日
Top
微信扫码咨询专知VIP会员