自然语言处理(NLP)被誉为人工智能皇冠上的明珠,是计算机科学领域与人工智能领域中的一个重要方向,在应用方面有着广阔的空间。自然语言理解和自然语言生成是十分困难的。造成困难的根本原因是自然语言文本和对话的各个层次上广泛存在的各种各样的歧义性或多义性(ambiguity)。那么,如何有效的学习词汇表示和抽取信息和关系就显得尤为重要。
日前,自动化所自然语言处理组在多模态词汇表示模型、大规模关系抽取、时间检测和事件识别方面取得了一些新进展。
1.基于动态融合方法的多模态词汇表示模型
相比基于文本的模型,多模态模型可以学习到更好的词汇表示。之前的多模态词汇表示模型平等地对待不同模态的信息。但是,不同模态的信息对于不同类型的词汇的贡献程度是不同的。比如对于抽象词如“快乐”,文本模态对词义的贡献要大于感知觉模态的贡献;而对于具象词如“桌子”,文本和感知觉模态都会极大地影响词汇的含义。这启发团队成员建立可以根据不同类型的词汇对不同模态的信息加以区分的多模态词汇表示模型。因此,团队成员(王少楠、张家俊、宗成庆)提出了三种动态融合机制,可以分别针对模态、词类和词汇对不同模态赋予不同的权重。由于标准答案并不为人所知,因此,团队成员提出可以通过间接利用相关或相似词对作为弱监督信号,让模态在学习词汇是否是相关词汇的过程中自动学习不同模态的权重。
转自:中国科学院自动化研究所
完整内容请点击“阅读原文”