2018年以来预训练模型技术成功将深度学习框架应用于海量无标注数据,在大数据和大算力的支持下,「大模型」一定程度上具备了通用的语言能力,可以非常方便地通过微调技术适配到广泛下游任务,任务性能得到普遍显著提升,成为自然语言处理等领域的最新学习范式,前沿动态日新月异。 「全国社会媒体处理大会(SMP)」创立于2012年,是中国中文信息学会社会媒体处理专委会的旗舰会议,本次论坛为SMP十周年系列纪念活动的第3场。「Big Model Meetup」系列活动则是由智源研究院悟道团队、青源会、清华大学计算机科学与技术系博硕论坛、中国中文信息学会青年工作委员会共同组织的大模型技术社区。本次论坛由智源社区提供社区支持,PaperWeekly、MLNLP(机器学习算法与自然语言处理)社区提供媒体支持。 本次论坛以大模型加速计算技术为主题,于2021年11月28日在线上召开,邀请了周明、车万翔、邱锡鹏等著名学者担任特邀讲者,并邀请多位优秀青年学者做前沿技术报告。
报告题目:EVA-悟道文滔对话大模型 报告摘要:虽然近年来预训练语言模型的发展极大提升了对话生成模型的能力,但是在中文自然语言处理领域,受限于公开数据的数据量以及模型训练的开销,对于资源有限的研究组来说,完整地训练一个具有良好中文对话能力的模型仍然是一件十分困难的事情。因此,本报告将以 EVA 模型为例,介绍利用公开数据构建中文对话系统的过程以及可能遇到的诸多困难,包括数据的爬取、清洗和模型的训练、微调。EVA 具有28亿参数,是现在最大的开源中文开放域对话模型,和其他开源中文对话模型相比有着更强的对话相关性和多样性,可以被作为基座模型用于闲聊、情绪安抚等多个下游场景。