项目名称: 基于儿童语言习得机制的语言接地技术研究

项目编号: No.61273365

项目类型: 面上项目

立项/批准年度: 2013

项目学科: 自动化技术、计算机技术

项目作者: 王小捷

作者单位: 北京邮电大学

项目金额: 80万元

中文摘要: 语言接地连接语言与感知,是认知科学中的一个重要问题,这一问题的解决对于研制智能服务机器人具有重要价值。儿童语言习得依赖于内部大脑结构以及与外部环境的交流,这两个因素协同作用,是儿童分阶段逐步习得接地语言的关键。本项目拟建模这种儿童语言习得机制,在语言接地技术上取得突破。首先提出一种能对视、听双模态信息分别进行深层加工,并在深层表示间建立关联的混合深层网络模型,构建其学习和评测方法。同时,建模儿童语言习得的阶段性机制,使模型在统一的深层网络结构框架下适应不同阶段的语言特点;其次对基于视、听双模态信息的监护人与儿童对话进行建模,提出监护人说话意图的分析方法;进而研究由说话人意图驱动的深层网络学习和测试控制机制,建模儿童语言习得时外部交流与内部结构间的协同作用。最后将这些技术集成部署在一个机器人上,实现一个能基于视、听双通道信息与人进行自然交互,具有分阶段逐步习得单词和双词组合接地语言的机器人。

中文关键词: 对应自编码器;关联学习;联合模型;层次长短期记忆模型;部分可观马尔科夫决策过程

英文摘要: Human language can describe external perpceptive world. The association between langauge and perveptive information is called language grounding. Language Grounding is a kernel problem of cognitive science. The resolution of this problem is also very important for the development of intelligence servive robots. It is now well acknowledged that children langauge acquisition mainly dependend on the highly complex brain and communications with external envirnoment, especially dialogues with their babycarers. These two factors and their tight co-operation compose the kernel mechanism of children language acquisition. This project plan to model the mechanism of children language acquisition, and make progresses in langauge grounding. We firstly propose a hybrid deep network model. The model includes two deep networks and one counter-propagation network. Two deep networks are learnt to analysis the visul and audio stream seperately, internal representations are formed in deep network after learning. Counter-propagation network is then used to build links between two internal representations. We also model different stages of children language acquisition in the same network frame. Two models with same network frame are proposed to model the internal mechanism of grounded language acquisition in both stages of one-word

英文关键词: Correspondence Auto-Encoder;Correlation Learning;Joint Model;Hierarchical Long Short-Term Memory;Partial Observable Markov Decision Process

成为VIP会员查看完整内容
0

相关内容

自然语言处理中的文本表示研究
专知会员服务
56+阅读 · 2022年1月10日
从视频到语言: 视频标题生成与描述研究综述
专知会员服务
19+阅读 · 2022年1月8日
【博士论文】视觉语言交互中的视觉推理研究
专知会员服务
61+阅读 · 2021年12月1日
专知会员服务
50+阅读 · 2021年9月25日
专知会员服务
61+阅读 · 2021年8月4日
专知会员服务
71+阅读 · 2021年7月29日
专知会员服务
31+阅读 · 2021年3月17日
稀缺资源语言神经网络机器翻译研究综述
专知会员服务
26+阅读 · 2020年12月2日
[综述]基于深度学习的开放领域对话系统研究综述
专知会员服务
78+阅读 · 2019年10月12日
首个视觉-语言预训练综述来了!
夕小瑶的卖萌屋
8+阅读 · 2022年3月29日
自然语言处理中的文本表示研究
专知
0+阅读 · 2022年1月10日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
NLP 与 NLU:从语言理解到语言处理
AI研习社
15+阅读 · 2019年5月29日
CCCF专题:史元春 | 自然人机交互
中国计算机学会
24+阅读 · 2018年5月18日
Natural 自然语言处理(NLP)「全解析」
人工智能学家
14+阅读 · 2017年9月23日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
Simplicial Attention Networks
Arxiv
0+阅读 · 2022年4月20日
Invertible Mask Network for Face Privacy-Preserving
Arxiv
0+阅读 · 2022年4月19日
UNITER: Learning UNiversal Image-TExt Representations
Arxiv
23+阅读 · 2019年9月25日
小贴士
相关VIP内容
自然语言处理中的文本表示研究
专知会员服务
56+阅读 · 2022年1月10日
从视频到语言: 视频标题生成与描述研究综述
专知会员服务
19+阅读 · 2022年1月8日
【博士论文】视觉语言交互中的视觉推理研究
专知会员服务
61+阅读 · 2021年12月1日
专知会员服务
50+阅读 · 2021年9月25日
专知会员服务
61+阅读 · 2021年8月4日
专知会员服务
71+阅读 · 2021年7月29日
专知会员服务
31+阅读 · 2021年3月17日
稀缺资源语言神经网络机器翻译研究综述
专知会员服务
26+阅读 · 2020年12月2日
[综述]基于深度学习的开放领域对话系统研究综述
专知会员服务
78+阅读 · 2019年10月12日
相关资讯
首个视觉-语言预训练综述来了!
夕小瑶的卖萌屋
8+阅读 · 2022年3月29日
自然语言处理中的文本表示研究
专知
0+阅读 · 2022年1月10日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
NLP 与 NLU:从语言理解到语言处理
AI研习社
15+阅读 · 2019年5月29日
CCCF专题:史元春 | 自然人机交互
中国计算机学会
24+阅读 · 2018年5月18日
Natural 自然语言处理(NLP)「全解析」
人工智能学家
14+阅读 · 2017年9月23日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
6+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员